3 biais cognitifs induits par l’IA qui détruisent votre raisonnement

Depuis l’avènement de ChatGPT, de plus en plus d’études et de critiques alertent sur les risques liés à l’IA.

Je vous propose de mettre la lumière sur trois risques qui touchent les utilisateurs de l’IA : le biais d’autorité, le biais de confirmation et l’anthropomorphisme.

Afin de mieux comprendre ces dangers, il faut connaitre mécanismes psychologiques que l’IA peut déclencher chez l’humain, notamment chez les plus jeunes.

Qu’est-ce qu’un biais cognitif ?

De façon générale, un biais cognitif est une erreur de jugement dans le traitement d’une information.

Cela s’explique par plusieurs facteurs. Mais la résultante est la même : un jugement rapide et faussé d’une situation.

Il y a un nombre considérable de biais cognitifs déjà répertoriés.

Vous trouverez dans cette liste les plus communs.

Il existe aussi le Codex des biais cognitifs pour avoir une vue plus exhaustive.

Source : https://fr.wikipedia.org/wiki/Biais_cognitif

1. Le biais d’Autorité

Lorsqu’un médecin livre un diagnostic, une majorité de personnes aura tendance à le croire.

Parce que c’est une figure d’autorité.

Contrairement à un diagnostic réalisé par un individu qui n’a pas le diplôme de médecine.

C’est cela le biais d’autorité : une tendance à être davantage influencé(e) par les opinions et les jugements de personnes ayant une légitimité perçue : statut professionnel, diplôme, communauté, etc.

L’IA est aujourd’hui considérée comme une figure d’autorité.

Du moins, par une partie de la population.

Pourquoi ?

Dans un article sur les benchmarks des modèles d’IA, je mettais en avant les failles des tests utilisés pour évaluer la pertinence des outils d’IA.

Cette limite est notamment liée aux techniques intégrées dans ces benchmarks comme les QCM (Questions à Choix Multiples).

Dans la vie réelle, le contexte et l’empathie jouent un rôle clé dans la résolution de problèmes. Un QCM n’est pas suffisant.

Malgré cela, les benchmarks sont pris comme référence par le public et certains professionnels. Contribuant ainsi à construire l’image d’une IA « très intelligente ».

De surcroit, la compréhension erronée du fonctionnement de l’IA est un autre facteur de cette confusion.

Utiliser des termes comme « intelligence », « raisonnement », « pensée », etc. alimente cette définition trompeuse de ce qu’est réellement l’IA : un outil.

Un outil aux capacités impressionnantes, certes. Mais cela reste un robot qui fait des calculs.

Quelles sont les conséquences du biais d’autorité avec l’IA ?

Ce phénomène conduit les individus à accorder une confiance quasi aveugle aux modèles d’IA, comme ChatGPT.

Cela se traduit par :

  • Une absence de vérification des contenus générés ;
  • Une baisse de l’esprit critique ;
  • Une uniformisation de la pensée, car basée sur l’usage massif d’outils d’IA. Cela est un véritable frein pour l’innovation.

2. Le biais de Confirmation

Le biais de confirmation est une tendance cognitive qui pousse à rechercher, interpréter et mémoriser les informations qui confirment nos croyances et avis.

Et en parallèle, on minimise, voire, on ignore les informations qui les contredisent.

Prenons un exemple.

Vous avez une idée innovante de business. Vous passez par un outil comme ChatGPT pour approfondir votre réflexion.

Il est probable que le Chatbot vous encourage vivement dans cette démarche. Alors que dans la réalité, votre idée est à jeter aux oubliettes…

Ce biais de confirmation est donc accentué par l’IA qui va souvent dans votre sens.

Il existe des méthodes pour limiter cet écueil. Par exemple, en demandant à l’IA de critiquer les réponses qu’elle a fournies.

Quelles sont les conséquences du biais de confirmation avec l’IA ?

  • Une prise de décision biaisée : que ce soit au niveau personnel ou professionnel. L’IA vous oriente dans une direction qui est conforme à vos idées.
  • Une vision uniforme liée aux données d’entrainement : les modèles dominants à date sont américains : ChatGPT, Claude.ai, Gemini.
    Ces outils sont entrainés principalement sur le corpus américain, en anglais.
    Par conséquent, leur contenu est empreint d’une vision occidentale. L’IA prend moins en compte d’autres points de vue différents.
  • Affaiblissement de la pensée critique : au même titre que le biais d’autorité. À cause d’une grande confiance dans l’IA qui renforce les opinions déjà préexistantes chez l’utilisateur. Ce dernier ne remet pas en cause sa pensée.

3. L’Anthropomorphisme

L’anthropomorphisme est le fait d’attribuer des caractéristiques humaines à des animaux, des objets ou toute chose qui n’est pas humaine.

Nous pouvons identifier quatre niveaux d’anthropomorphisme avec un degré de connexion émotionnelle variable (source : Nielsen Group) :

4-niveaux-anthropomorphisme
  • Courtoisie : Utiliser des formules de politesse du type « s’il vous plaît » ou « merci ». Et penser que cela augmente la pertinence des réponses de l’IA. Ou simplement pour rendre l’interaction plus fun.
  • Renforcement : Se traduit par l’action de féliciter ou réprimander l’IA en fonction de ses retours.
  • Jeu de Rôle : En prompt engineering (art de structurer des demandes à l’IA), on simule un jeu de rôle dans le but d’obtenir des réponses plus précises.
    Par exemple : agis comme un expert en développement durable.
    Faire appel à cette astuce peut aussi créer un lien émotionnel.
  • Compagnie : C’est le degré le plus élevé d’anthropomorphisme. Et aussi le plus sournois. L’utilisateur considère le robot comme un compagnon. Un soutien qui n’est que virtuel, dénué d’empathie.
    Un triste fait divers en Belgique illustre la dangerosité d’un fort attachement émotionnel avec l’IA. Un chatbot dénommé « Eliza », aurait poussé un individu au suicide…

Cette excellente vidéo de Ludovic Salenne explique les effets nocifs que peut induire ChatGPT.


Un autre phénomène, plus surprenant, met en lumière l’influence de ChatGPT sur les habitudes des utilisateurs.

Les chercheurs ont constaté une augmentation de l’usage de mots associés à l’intelligence artificielle. Vous trouverez plus de détails dans cet article.

La responsabilité des experts de l’IA dans la diffusion de l’anthropomorphisme

Les spécialistes de l’IA sont en première ligne dans l’éducation du grand public et des relais d’opinion.

Car en utilisant des termes comme « pensée » ou « raisonnement » au lieu de « calcul », ils entretiennent cette ambiguïté dans les esprits.

Que ce soit de façon consciente ou non.

Arrêtons-nous sur l’exemple du terme « raisonnement ».

Un raisonnement pertinent conduit à une prise de décision rationnelle.

Autrement dit, en attribuant la faculté de raisonner à la machine, on lui confère, de fait, l’aptitude à prendre des décisions éclairées.

Il suffit de documenter les nombreux cas où l’IA ne prend pas la bonne décision pour comprendre que ce terme n’est pas pertinent.

C’est particulièrement critique dans des domaines comme la médecine. Un diagnostic ne repose pas simplement sur des symptômes apparents, mais également sur des facteurs psychiques, etc.

Un chatbot va se baser sur des données d’entrainement et non des ressentis pour prendre une décision. Il est très utile dans un rôle d’assistant, mais potentiellement dangereux si l’on se repose sur lui pour décider.

Sans oublier les hallucinations qui impactent négativement les réponses de l’IA.

Est-ce que les géants de l’IA exploitent sciemment ces biais cognitifs ?

Il est légitime de se poser cette question.

Car dans l’histoire du Web, il y a les réseaux sociaux comme précédent.

Plusieurs anciens cadres et dirigeants de Facebook ont publiquement reconnu que la plateforme a été conçue pour exploiter la psychologie humaine, en particulier les mécanismes de dépendance liés à la dopamine. 

Le gain économique a prévalu sur les risques sur l’utilisateur.

Rappelez-vous aussi de l’affaire Cambridge Analytica.

Les fortes tensions internes concernant l’orientation stratégique de OpenAI reflètent cette prise de conscience chez certains experts de l’IA.

Ces dissensions ont d’ailleurs abouti à des départs de cadres clés, en désaccord avec une vision jugée trop marchande et peu prudente de la Direction.

Quant à la régulation, elle tarde à venir.

En plus de son efficacité qui reste à prouver, les États-Unis ne sont pas prêts à imposer des restrictions à leurs entreprises florissantes. Et cela, dans un secteur hautement stratégique.

Finalement, c’est aux utilisateurs de prendre leurs dispositions en régulant eux-mêmes leur usage de l’IA.

Les plus jeunes sont particulièrement exposés aux méfaits possibles de ces outils. D’où l’importante de mettre en place des formations et des campagnes de sensibilisation sur l’usage responsable de l’IA.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut