OSIRIS

Observatoire sur les systèmes d’information, les réseaux et les inforoutes au Sénégal

Show navigation Hide navigation
  • OSIRIS
    • Objectifs
    • Partenaires
  • Ressources
    • Société de l’Information
    • Politique nationale
    • Législation et réglementation
    • Etudes et recherches
    • Points de vue
  • Articles de presse
  • Chiffres clés
    • Le Sénégal numérique
    • Principaux tarifs
    • Principaux indicateurs
  • Opportunités
    • Projets

Accueil > Articles de presse > Année 2026 > Février 2026 > Intelligences artificielles génératives : Au-delà des biais, le risque (…)

Intelligences artificielles génératives : Au-delà des biais, le risque potentiel des hallucinations

mercredi 4 février 2026

Intelligence artificielle

Les intelligences artificielles génératives produisent aujourd’hui des textes, des images et des décisions dont la crédibilité apparente peut aller jusqu’à l’illusion. Parfois cette crédibilité est excessive. Derrière la fluidité se cachent deux grands risques. D’une part les biais dérivés du matériel humain. D’autre part, les hallucinations, ces inventions crédibles mais fausses. Un phénomène encore imparfaitement compris, qui a des impacts concrets sur la recherche, la justice, la médecine, les affaires et la démocratie.

L’un d’entre vous interroge une intelligence artificielle générative. La réponse arrive. Elle est fluide, structurée, confiante. Elle semble maîtriser son sujet. Pourtant, elle est parfois fausse. Pas approximative. Pas imprécise. Fausse. C’est ce que les chercheurs appellent une hallucination. Une définition abrégée est tirée du document de travail qui sert de base à cet article. Un modèle hallucine lorsqu’il génère des informations sans aucun fondement dans la réalité ou les données d’entraînement, tout en présentant tous les signes extérieurs de la vérité.

Cette distinction est cruciale. Une erreur factuelle est encore vérifiable. Une hallucination invente. C’est une source inventée, un précédent juridique imaginaire, une étude scientifique fantôme. Le modèle ne ment pas. Il ne sait pas qu’il se trompe. Il prédit une séquence de mots statistiquement cohérente. La littérature scientifique confirme cette affirmation. Les architectures probabilistes sous-tendent les grands modèles de langage. Ils prennent des milliards d’exemples textuels et optimisent la probabilité du token suivant. Ils n’ont ni un sens sémantique du monde ni une vue directe de la réalité empirique.

Et c’est ce que les travaux classiques (Bender et al. sur les « perroquets stochastiques », le document de l’Association for Computing Machinery en 2021) clarifient. L’IA ne sait pas. Elle calcule. Elle réagit parce que nous voulons une réponse. Cela crée un biais fondamental. Le biais de satisfaction. Le modèle privilégie de donner une réponse plutôt que de gérer l’incertitude. Ce biais est technique. Il est aussi humain. La réponse est trop bien construite, et l’utilisateur semble bien content.

Les biais ne s’arrêtent pas là. Le rapport distingue deux types principaux. Les biais algorithmiques, issus des données d’entraînement. Et les préjugés sociaux qui reflètent les déséquilibres du monde réel. Le biais de genre est encore l’exemple le plus connu. Les recherches de l’UNESCO et de l’OCDE suggèrent que les modèles associent plus fréquemment les femmes aux services de soins et les hommes aux postes de direction. Ainsi, le document rend ce mécanisme concret.

Le biais culturel s’inscrit dans la même logique. Les grands modèles sont entraînés sur des corpus anglophones, occidentaux, nord-américains. Il dit que certains choix lexicaux, certaines moeurs de politesse ou de moralité proviennent d’une certaine culture. Cette observation est cohérente avec les analyses menées par l’Institut de l’IA centrée sur l’humain de Stanford. Le rapport AI Index 2024 de l’institut cite la grande sous-représentation des langues africaines, asiatiques et locales dans les ensembles de données de référence.

Ces biais deviennent d’autant plus prononcés lorsqu’ils croisent les hallucinations. Le document fournit quelques exemples spécifiques des deux pour illustrer le point. Dans le domaine de la recherche scientifique, un modèle peut inventer des résultats et des références lorsqu’il est privé de données. Ce risque est documenté. En 2023, plusieurs mises en garde contre les IA génératives non contrôlées dans l’écriture scientifique sont apparus dans Nature. Des références inexistantes ont été détectées dans des manuscrits soumis à des revues à comité de lecture.

Le document mentionne un cas réel survenu aux États-Unis. Un avocat a déposé des conclusions de précédents tirés d’un modèle GPT. Ces précédents n’existaient pas. En juin 2023, le tribunal fédéral de New York a confirmé le cas. Le résultat a été des sanctions disciplinaires.

En médecine, la menace est encore plus évidente. Le document note des erreurs dans la transcription des notes médicales et des silences perçus comme des omissions d’informations que le modèle a tenté de couvrir. Cette constatation correspond à un travail que nous avons vu du MIT selon lequel les modèles présentent un biais structurel face aux zones de silence informationnel.

Les hallucinations ne sont pas marginales. Elles sont systémiques. Elles augmentent lorsque vous ne donnez pas de contexte au modèle, lorsque votre question n’est pas claire, ou qu’un utilisateur ne sait pas quelle est la réponse et attend une réponse quoi qu’il en coûte. Et c’est ce que le document souligne vraiment. Un prompt sert de structure cognitive. Permettre un rôle, un contexte et une limitation aide à réduire la taille des hallucinations. Cela est soutenu par les recommandations de Google DeepMind et OpenAI dans leurs guides d’utilisation consciencieuse.

Réduire l’accès à Internet peut également aider à réduire le risque, mais ne l’élimine pas de l’image. Les modèles connectés peuvent également ingérer de fausses informations en ligne. Les fausses nouvelles ne disparaissent pas. Elles changent d’échelle. La quantité de contenu généré par l’IA pourrait dépasser celle générée par les humains en masse. Plusieurs études, notamment celle menée par l’OCDE, indiquent que la production de contenus synthétiques progresse plus rapidement que les capacités de vérification.

Le risque est circulaire. Les IA formées sur le contenu créé par les IA. Une perte de diversité informationnelle de manière progressive. Depuis 2023, des chercheurs de l’Université de Stanford ont observé ce phénomène, autrement connu sous le nom d’effondrement du modèle.

Face à ces risques, la modération humaine à grande échelle est une solution pratique mais irréaliste. Le volume est trop important. Les plateformes misent sur l’auto-modération algorithmique. Cela crée une nouvelle opacité. La transparence, alors, devient centrale. Afficher les sources ne suffit pas si ces sources sont elles-mêmes fragiles. La confiance ne peut pas être entièrement déléguée à la machine.

C’est à ce stade que la responsabilité de l’utilisateur doit intervenir. Relire. Vérifier. Recouper. Contester la réponse. Demander au modèle sa certitude. La version croisée des LLM commence à être explorée par les universitaires. Comment intégrer une idée simple. L’IA générative n’est pas une autorité. C’est un outil de production probabiliste.

Plus l’utilisation dans des domaines à fort impact est grande, plus l’exigence humaine devrait l’être. Les hallucinations crédibles à grande échelle peuvent influencer les opinions, propager des récits sans fondement, saper les processus électoraux.

Depuis 2023, il y a eu un certain nombre de rapports de l’Union européenne et de l’ONU avertissant de ce danger. Mais cela ne signifie pas rejeter les intelligences artificielles génératives. Leur pouvoir est réel. Leur utilité est démontrée. Mais leur fiabilité n’est pas automatique. Elle se construit. Elle se contrôle. Elle se vérifie. Une IA qui parle n’est pas une IA qui dit la vérité. Et plus elle se sent sûre d’elle, plus vous devez être sûr de votre esprit critique.

Alioune Ba

(Source : Sud Quotidien, 4 février 2026)

Fil d'actu

  • Charte de membre Africollector Burkina NTIC (25 février 2026)
  • TIC ET AGRICULTURE AU BURKINA FASO Étude sur les pratiques et les usages Burkina NTIC (9 avril 2025)
  • Sortie de promotion DPP 2025 en Afrique de l’Ouest Burkina NTIC (12 mars 2025)
  • Nos étudiant-es DPP cuvée 2024 tous-tes diplomés-es de la Graduate Intitute de Genève Burkina NTIC (12 mars 2025)
  • Retour sur images Yam Pukri en 2023 Burkina NTIC (7 mai 2024)

Liens intéressants

  • NIC Sénégal
  • ISOC Sénégal
  • Autorité de régulation des télécommunications et des postes (ARTP)
  • Fonds de Développement du Service Universel des Télécommunications (FDSUT)
  • Commission de protection des données personnelles (CDP)
  • Conseil national de régulation de l’audiovisuel (CNRA)
  • Sénégal numérique (SENUM SA)

Navigation par mots clés

  • 4395/5156 Régulation des télécoms
  • 357/5156 Télécentres/Cybercentres
  • 3618/5156 Economie numérique
  • 1782/5156 Politique nationale
  • 5096/5156 Fintech
  • 532/5156 Noms de domaine
  • 2311/5156 Produits et services
  • 1546/5156 Faits divers/Contentieux
  • 747/5156 Nouveau site web
  • 5156/5156 Infrastructures
  • 1754/5156 TIC pour l’éducation
  • 197/5156 Recherche
  • 254/5156 Projet
  • 3539/5156 Cybersécurité/Cybercriminalité
  • 1894/5156 Sonatel/Orange
  • 1644/5156 Licences de télécommunications
  • 275/5156 Sudatel/Expresso
  • 1401/5156 Régulation des médias
  • 1310/5156 Applications
  • 1089/5156 Mouvements sociaux
  • 1729/5156 Données personnelles
  • 136/5156 Big Data/Données ouvertes
  • 621/5156 Mouvement consumériste
  • 374/5156 Médias
  • 664/5156 Appels internationaux entrants
  • 1693/5156 Formation
  • 96/5156 Logiciel libre
  • 2193/5156 Politiques africaines
  • 1000/5156 Fiscalité
  • 168/5156 Art et culture
  • 601/5156 Genre
  • 1779/5156 Point de vue
  • 1050/5156 Commerce électronique
  • 1513/5156 Manifestation
  • 333/5156 Presse en ligne
  • 129/5156 Piratage
  • 211/5156 Téléservices
  • 930/5156 Biométrie/Identité numérique
  • 317/5156 Environnement/Santé
  • 386/5156 Législation/Réglementation
  • 361/5156 Gouvernance
  • 1811/5156 Portrait/Entretien
  • 155/5156 Radio
  • 791/5156 TIC pour la santé
  • 286/5156 Propriété intellectuelle
  • 60/5156 Langues/Localisation
  • 1309/5156 Médias/Réseaux sociaux
  • 2066/5156 Téléphonie
  • 197/5156 Désengagement de l’Etat
  • 1043/5156 Internet
  • 125/5156 Collectivités locales
  • 431/5156 Dédouanement électronique
  • 1130/5156 Usages et comportements
  • 1063/5156 Télévision/Radio numérique terrestre
  • 561/5156 Audiovisuel
  • 3398/5156 Transformation digitale
  • 391/5156 Affaire Global Voice
  • 199/5156 Géomatique/Géolocalisation
  • 326/5156 Service universel
  • 703/5156 Sentel/Tigo
  • 184/5156 Vie politique
  • 1574/5156 Distinction/Nomination
  • 36/5156 Handicapés
  • 723/5156 Enseignement à distance
  • 782/5156 Contenus numériques
  • 613/5156 Gestion de l’ARTP
  • 182/5156 Radios communautaires
  • 1823/5156 Qualité de service
  • 452/5156 Privatisation/Libéralisation
  • 139/5156 SMSI
  • 551/5156 Fracture numérique/Solidarité numérique
  • 2744/5156 Innovation/Entreprenariat
  • 1416/5156 Liberté d’expression/Censure de l’Internet
  • 47/5156 Internet des objets
  • 175/5156 Free Sénégal
  • 719/5156 Intelligence artificielle
  • 210/5156 Editorial
  • 2/5156 Gaming/Jeux vidéos
  • 28/5156 Yas

2026 OSIRIS
Plan du site - Archives (Batik)

Suivez-vous