Comment utiliser l’IA générative de façon consciente et responsable ? [Checklist]

Un nombre croissant de personnes prennent conscience des effets négatifs du mauvais usage de l’IA générative.

La solution n’est pas de rester en retrait de cette technologie. Utilisée de manière pertinente, elle offre beaucoup d’opportunités.

C’est plutôt d’apprendre à exploiter l’IA en étant conscient des limites et des risques.

Pour cela, il faut commencer par comprendre les caractéristiques de l’IA générative.  

Par exemple, en la comparant avec d’autres outils que l’on connait déjà (réseaux sociaux et moteurs de recherche). On pourra ainsi cerner ses enjeux.

Il ne s’agit pas d’évoquer ce qui distingue techniquement ces interfaces. Mais de réfléchir en termes d’usage.

Différences entre moteurs de recherche, réseaux sociaux et ChatBot IA

1. 𝐌𝐨𝐭𝐞𝐮𝐫𝐬 𝐝𝐞 𝐫𝐞𝐜𝐡𝐞𝐫𝐜𝐡𝐞

Un moteur de recherche « classique » propose un ensemble de résultats. Ces derniers peuvent différer en termes d’angles et d’opinions.

Cela permet à notre esprit d’avoir un choix et un recul sur le sujet traité.

Bien sûr, les résultats peuvent être orientés selon notre historique de recherche et/ou notre profil. Néanmoins, on a toujours plusieurs alternatives dans les résultats. Même avec la nouvelle interface de Google alimentée par l’IA (AI Overviews).

Exemple de résultat sur Google au format AI Overviews

2. 𝐑𝐞́𝐬𝐞𝐚𝐮𝐱 𝐬𝐨𝐜𝐢𝐚𝐮𝐱

Les contenus affichés par les plateformes telles qu’Instagram ou TikTok reflètent essentiellement les centres d’intérêts de chaque utilisateur.

Même si les médias sociaux peuvent engendrer une « addiction au scroll », il y a toujours une fenêtre de liberté dans les contenus que l’on peut voir.

En effet, en interagissant avec un type de contenu, on oriente le flux d’informations affiché par les algorithmes.

La présence d’autres personnes permet aussi l’échange et la confrontation à diverses opinions.

Néanmoins, il faut faire attention à ne pas s’enfermer dans une « bulle de filtres ». Car plus on clique sur un type d’information, plus elle est présente dans notre flux.

De plus, la présence de faux comptes et de désinformation doivent vous garder vigilants face à ces plateformes. C’est ce qu’illustre cette enquête édifiante diffusée par Arte.


3. 𝐂𝐡𝐚𝐭𝐛𝐨𝐭 𝐈𝐀

Ils sont basés sur la technologie du deep learning. Il y a bien sûr le célèbre ChatGPT. Mais d’autres LLM sont massivement utilisés aujourd’hui : Gemini, Claude.ai, etc.

On obtient une réponse directe et unique à une problématique. Contrairement aux robots de recherche où plusieurs liens différents sont accessibles.

Cette réponse de l’IA est issue des données d’entrainement et de sources souvent inconnues pour l’utilisateur.

Par ailleurs, des études ont démontré que les chatbots sont flagorneurs et vont dans le sens de l’utilisateur.

Des chercheurs de l’Université de Stanford et de l’Université Carnegie Mellon ont analysé 11 modèles d’IA majeurs (provenant d’OpenAI, Anthropic et Google).
Voici les résultats mis en évidence :

  • Un taux d’approbation élevé : Les LLM approuvent les affirmations des utilisateurs 50% plus fréquemment que les humains (dans des situations similaires).​
  • Validation des idées nuisibles : Cette tendance à l’approbation persiste même si les idées des utilisateurs impliquent de la manipulation, la tromperie ou des comportements préjudiciables.
  • Perception positive par les utilisateurs : La conclusion la plus inquiétante est que les utilisateurs jugent les modèles les plus flatteurs comme étant de meilleure qualité. Ils sont considérés comme plus fiables et plus désirables à réutiliser.​
  • Impact sur le jugement de l’utilisateur : L’interaction avec l’IA dite « sycophante » (terme dédié pour désigner ce comportement flagorneur) rend les utilisateurs moins enclins aux débats contradictoires.

Une flatterie nécessaire pour fidéliser les utilisateurs et rentabiliser les outils comme ChatGPT ? La question mérite d’être posée…

Qu’en faut-il retenir ?

Les moteurs de recherche et les réseaux sociaux présentent des risques à l’usage (impact de l’historique, bulle à filtres, notamment).

Mais l’IA peut poser davantage de problèmes. En voici quelques-uns :

  • Manque de transparence sur les sources utilisées pour la réponse. Et donc, une difficulté pour vérifier la véracité de l’information.
  • Manque de pluralité : une réponse unique dans une conversation « à huis clos ». L’IA peut enfermer l’individu dans un raisonnement auto-centré. Ce qui l’amène à rejeter les opinions extérieures.
  • Biais de confirmation : les modèles d’IA dominants tendent à toujours aller dans le sens de l’utilisateur. Même si cela n’est pas pertinent.
    Car les chatbots sont configurés aussi pour satisfaire l’utilisateur et les garder engagés sur la plateforme.
    De plus, les benchmarks présentés régulièrement véhiculent l’idée que l’IA est plus « intelligente », poussant les internautes à lui faire confiance.

Checklist pratique : utiliser l’IA de façon responsable

Maintenant qu’on a mis en exergue les risques liés à l’usage de l’IA générative, voici une checklist pour l’exploiter de façon plus responsable :

  • Avoir à l’esprit la réelle définition de l’IA : un système de calculs de probabilités ultrasophistiqué. Rien qu’avec ce principe en tête, votre rapport à l’IA générative sera différent.
    Vous échangez avec un robot performant, certes, mais sujet à des hallucinations et dénué de conscience.
  • Ne jamais considérer les réponses comme une vérité : faire des recherches complémentaires sur des outils différents. Cela permet de croiser les sources et identifier d’éventuelles incohérences.
  • Demander systématiquement les sources : même si cela ne garantit pas que vous ayez les sources d’origine. Les systèmes ayant brassé des milliards de paramètres (calculés sous forme de tokens).
  • Ne pas utiliser un outil d’IA pour une recherche d’information simple : faire une requête via un modèle d’IA nécessite 30 fois plus d’énergie qu’un moteur de recherche classique, selon la chercheuse Sasha Luccioni. Une initiative a été lancée pour mesurer les émissions de CO2 via la plateforme codecarbon.io
  • Demander des contre-arguments ou des critiques à la réponse de l’IA : cela permet d’éviter les biais de confirmation.
  • Indiquer systématiquement si un contenu a été généré par l’IA : alors que la part des contenus créés par l’IA est d’environ 50% selon une étude, il est d’autant plus important d’être transparents vis-à-vis des internautes. Pour ce faire, préciser si votre contenu (texte, image ou vidéo) a été conçu par l’intelligence artificielle.
  • Choisir des outils adaptés : vous n’êtes pas obligé d’adopter ChatGPT ! À qui l’on peut reprocher (entre autres), le manque de transparence.
    D’autres solutions open source existent et peuvent aussi répondre à vos besoins.
    À l’image de certains utilisateurs qui évitent Google et lui préfèrent des moteurs alternatifs comme Ecosia.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut