Qu’est-ce que l’hallucination en IA ?

Étymologie

Le terme « hallucination » en intelligence artificielle est emprunté à la psychologie humaine, où il désigne une perception erronée sans stimulus externe.

Dans le contexte de l’IA, il fait référence à la génération de contenus incorrects ou trompeurs par des Large Language Models (LLM).

Contexte

Avec l’émergence des grands modèles de langage (LLM) comme GPT ou Gemini, les hallucinations sont devenues un sujet de préoccupation majeur.

La qualité du langage naturel produit par ces outils amène l’utilisateur à sur-estimer leurs capacités. Oubliant que cela est basé sur des calculs de probabilité et non un vrai résonnement.

Or, l’IA génère (et générera toujours) des informations fausses ou biaisées.

Cela est intrinsèquement lié à son fonctionnement.

Explication détaillée

Qu’est-ce qu’une hallucination en IA ?

Une hallucination en IA se produit lorsqu’un modèle génère une sortie incorrecte ou trompeuse, tout en la présentant comme exacte.

Par exemple, un modèle pourrait affirmer que Paris est la capitale de l’Allemagne, ce qui est factuellement incorrect.

Types d’hallucinations

  • Hallucinations ouvertes : Informations entièrement inventées, sans fondement dans les données d’entraînement.
  • Hallucinations fermées : Erreurs subtiles où le modèle déforme légèrement des informations existantes.
  • Hallucinations contextuelles : Réponses incorrectes dues à une mauvaise interprétation du contexte ou de la requête.

L’hallucination en IA est notamment liée au fait que le LLM recherche la satisfaction de l’utilisateur.

Ce comportement « flagorneur » amène l’IA à produire une réponse qui va dans le sens des préférences des utilisateurs.

Ce phénomène, particulièrement visible avec le modèle ChatGPT 4o, est dit « de sycophantie« .

Paradoxalement, les utilisateurs sont eux-mêmes en partie responsables de cette tendance.

Comment ?

OpenAI et d’autres géants de l’IA entraînent leurs modèles avec les retours des utilisateurs.

Or, les humains préfèrent généralement les réponses qui les flattent et confirment leurs opinions. C’est ce qu’on appelle le biais de confirmation.

Effets de l’hallucination en IA

Les hallucinations peuvent avoir des conséquences parfois très graves. Voici quelques exemples :

  • Santé : Un diagnostic médical erroné assisté par une IA peut mettre en danger la vie d’un patient !
  • Finance : Des prévisions financières inexactes peuvent entraîner des pertes économiques.
  • Éducation : La diffusion d’informations incorrectes peut induire en erreur les étudiants. L‘IA générative est massivement adoptée par les apprenants. Malheureusement, ils l’utilisent souvent de la mauvaise manière ! Comme l’explique cet article détaillé sur la pédagogie à l’ère de l’IA.
  • Médias : La propagation de fausses informations peut nuire à la crédibilité des sources.
    Par exemple, ChatGPT a déjà inventé de faux articles du journal The Guardian.

Au-delà des conséquences plus ou moins graves, ces hallucinations compromettent la confiance du public dans les systèmes d’IA.

Comment prévenir les hallucinations générées par l’IA ?

Utiliser un RAG

 Le Retrieval-Augmented Generation (RAG) est une technique qui combine la récupération d’informations sur des bases externes et la génération de texte pour améliorer la précision et la pertinence des réponses.

L’idée est simple : fournir des données fiables et à jour à l’IA pour limiter les erreurs et les hallucinations.

Source : https://k21academy.com/

Entraîner l’IA uniquement avec des sources pertinentes et spécifiques

Cela parait évident. Pour limiter les hallucinations, il faut de la donnée qualitative.

Encore faut-il définir de façon uniforme ce qu’est une donnée qualitative, car cela varie selon les contextes et même les cultures…

Les grands modèles de langage sont entrainées sur un nombre vertigineux de paramètres.

C’est le cas de Gemini, ChatGPT ou Claude.ai.

Ce sont des modèles « généralistes », censés répondre à un maximum de questions dans la plupart les domaines.

Ces outils ont nécessairement besoins d’des volumes de données considérables. Difficile alors d’assurer la pertinence de toutes ces informations.

L’une des solutions potentielles est d’utiliser des LLM spécialisés.

Des Small Language Models (SLM). Entrainés sur des corpus de données limités et spécialisés.

Par exemple, un SLM spécialisé dans la santé pour assister le personnel médical. Voire, dans une discipline de la médecine comme la cardiologie.

Optimiser les demandes « prompts »

Comme expliqué plus haut, l’être humain a tendance à chercher une confirmation de sa propre opinion.

Pour éviter ce biais, il faut garder une neutralité dans les demandes faites à l’IA (prompts).

Exploitez les instructions personnalisées, disponibles par exemple dans les paramètres de ChatGPT pour insérer cette demande de neutralité.

Ne pas hésiter aussi à tester plusieurs modèles différents. Ils peuvent vous apporter des réponses pertinentes, même s’ils ne s’appellent pas Gemini ou ChatGPT.

Dans tous les cas, il faut prendre le temps de vérifier les réponses de l’IA, au moins via un moteur de recherche classique.

Ce qu’il faut retenir

  • Définition : Les hallucinations en IA sont des sorties incorrectes générées par des modèles d’IA, présentées comme factuelles.
  • Causes : Elles résultent souvent de données d’entraînement insuffisantes, de biais et des limitations du modèle. Les contenus de l’IA générative nécessitent toujours une supervision humaine. Ils ne seront jamais parfaits !
  • Conséquences : Plusieurs exemples dans divers secteurs ont démontré les effets néfastes des hallucinations. Dans des domaines critiques, tels que la santé, les conséquences sont même dangereuses !
  • Prévention : La vérification systématique des réponses, la création de modèles spécialisés, entre autres, peuvent aider à les réduire. Mais pas à les supprimer totalement.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut