Comment utiliser l’IA générative de façon consciente et responsable ? [Checklist]

Un nombre croissant de personnes prennent conscience des effets négatifs du mauvais usage de l’IA générative.

La solution n’est pas de rester en retrait de cette technologie. Utilisée de manière pertinente, elle offre beaucoup d’opportunités.

C’est plutôt d’apprendre à exploiter l’IA en étant conscient des limites et des risques.

Pour cela, il faut commencer par comprendre les caractéristiques de l’IA générative.  

Par exemple, en la comparant avec d’autres outils que l’on connait déjà (réseaux sociaux et moteurs de recherche). On pourra ainsi cerner ses enjeux.

Il ne s’agit pas d’évoquer ce qui distingue techniquement ces interfaces. Mais de réfléchir en termes d’usage.

Différences entre moteurs de recherche, réseaux sociaux et ChatBot IA

1. 𝐌𝐨𝐭𝐞𝐮𝐫𝐬 𝐝𝐞 𝐫𝐞𝐜𝐡𝐞𝐫𝐜𝐡𝐞

Un moteur de recherche « classique » propose un ensemble de résultats. Ces derniers peuvent différer en termes d’angles et d’opinions.

Cela permet à notre esprit d’avoir un choix et un recul sur le sujet traité.

Bien sûr, les résultats peuvent être orientés selon notre historique de recherche et/ou notre profil. Néanmoins, on a toujours plusieurs alternatives dans les résultats. Même avec la nouvelle interface de Google alimentée par l’IA (AI Overviews).

Exemple de résultat sur Google au format AI Overviews

2. 𝐑𝐞́𝐬𝐞𝐚𝐮𝐱 𝐬𝐨𝐜𝐢𝐚𝐮𝐱

Les contenus affichés par les plateformes telles qu’Instagram ou TikTok reflètent essentiellement les centres d’intérêts de chaque utilisateur.

Même si les médias sociaux peuvent engendrer une « addiction au scroll », il y a toujours une fenêtre de liberté dans les contenus que l’on peut voir.

En effet, en interagissant avec un type de contenu, on oriente le flux d’informations affiché par les algorithmes.

La présence d’autres personnes permet aussi l’échange et la confrontation à diverses opinions.

Néanmoins, il faut faire attention à ne pas s’enfermer dans une « bulle de filtres ». Car plus on clique sur un type d’information, plus elle est présente dans notre flux.

De plus, la présence de faux comptes et de désinformation doivent vous garder vigilants face à ces plateformes. C’est ce qu’illustre cette enquête édifiante diffusée par Arte.


3. 𝐂𝐡𝐚𝐭𝐛𝐨𝐭 𝐈𝐀

Ils sont basés sur la technologie du deep learning. Il y a bien sûr le célèbre ChatGPT. Mais d’autres LLM sont massivement utilisés aujourd’hui : Gemini, Claude.ai, etc.

On obtient une réponse directe et unique à une problématique. Contrairement aux robots de recherche où plusieurs liens différents sont accessibles.

Cette réponse de l’IA est issue des données d’entrainement et de sources souvent inconnues pour l’utilisateur.

Par ailleurs, des études ont démontré que les chatbots sont flagorneurs et vont dans le sens de l’utilisateur.

Des chercheurs de Stanford et de l’Université Carnegie Mellon ont analysé 11 modèles d’IA majeurs (provenant d’OpenAI, Anthropic et Google).
Voici les résultats mis en évidence :

  • Un taux d’approbation élevé : Les LLM approuvent les affirmations des utilisateurs 50% plus fréquemment que les humains (dans des situations similaires).​
  • Validation des idées nuisibles : Cette tendance à l’approbation persiste même si les idées des utilisateurs impliquent de la manipulation, la tromperie ou des comportements préjudiciables.
  • Perception positive par les utilisateurs : La conclusion la plus inquiétante est que les utilisateurs jugent les modèles les plus flatteurs comme étant de meilleure qualité. Ils sont considérés comme plus fiables et plus désirables à réutiliser.​
  • Impact sur le jugement de l’utilisateur : L’interaction avec l’IA dite « sycophante » (terme dédié pour désigner ce comportement flagorneur) rend les utilisateurs moins enclins aux débats contradictoires.

Une flatterie nécessaire pour fidéliser les utilisateurs et rentabiliser les outils comme ChatGPT ? La question mérite d’être posée…

Qu’en faut-il retenir ?

Les moteurs de recherche et les réseaux sociaux présentent des risques à l’usage (impact de l’historique, bulle à filtres, notamment).

Mais l’IA peut poser davantage de problèmes. En voici quelques-uns :

  • Manque de transparence sur les sources utilisées pour la réponse. Et donc, une difficulté pour vérifier la véracité de l’information.
  • Manque de pluralité : une réponse unique dans une conversation « à huis clos ». L’IA peut enfermer l’individu dans un raisonnement auto-centré. Ce qui l’amène à rejeter les opinions extérieures.
  • Biais de confirmation : les modèles d’IA dominants tendent à toujours aller dans le sens de l’utilisateur. Même si cela n’est pas pertinent.
    Car les chatbots sont configurés aussi pour satisfaire l’utilisateur et les garder engagés sur la plateforme.
    De plus, les benchmarks présentés régulièrement véhiculent l’idée que l’IA est plus « intelligente », poussant les internautes à lui faire confiance.

Checklist pratique : utiliser l’IA de façon responsable

Maintenant qu’on a mis en exergue les risques liés à l’usage de l’IA générative, voici une checklist pour l’exploiter de façon plus responsable (infographie générée à l’aide de l’outil NotebookLM) :

  • Avoir à l’esprit la réelle définition de l’IA : un outil de calcul de probabilités ultrasophistiqué. Rien qu’avec ce principe en tête, votre rapport à l’IA générative sera différent.
    Vous échangez avec un robot performant, certes, mais sujet à des hallucinations et dénué de conscience.
  • Ne jamais considérer les réponses comme une vérité : faire des recherches complémentaires sur des outils différents. Cela permet de croiser les sources et identifier d’éventuelles incohérences.
  • Demander systématiquement les sources : même si cela ne garantit pas que vous ayez les sources d’origine. Les systèmes ayant utilisé des milliards de paramètres (calculés sous forme de tokens).
  • Ne pas utiliser un outil d’IA pour une recherche d’information simple : faire une requête via un modèle d’IA nécessite 30 fois plus d’énergie qu’un moteur de recherche classique, selon la chercheuse Sasha Luccioni. Une initiative a été lancée pour mesurer les émissions de CO2 via la plateforme codecarbon.io
  • Demander des contre-arguments ou des critiques à la réponse de l’IA : cela permet d’éviter les biais de confirmation.
  • Eviter de divulguer des données personnelles ou les anonymiser : se rappeler toujours que les données peuvent servir à entrainer les modèles d’IA.
  • Indiquer systématiquement si un contenu a été généré par l’IA : alors que la part des contenus créés par l’IA est d’environ 50% selon une étude, il est d’autant plus important d’être transparent vis-à-vis des internautes. Pour ce faire, préciser si votre contenu (texte, image ou vidéo) a été conçu par l’intelligence artificielle.
  • Choisir le bon modèle pour le bon usage : une fois un outil testé, les utilisateurs ont tendance à continuer sur le même (plus pratique et plus rapide).
    En réalité, il faut raisonner en termes de modèle LLM, non par nom d’outil.
    Certains modèles sont plus performants que d’autres selon la tâche :
    – Si votre demande attend une réponse unique et simple, le mode classique (par défaut) est plus rapide et moins gourmand en ressources.
    – Si la demande concerne une question complexe, le modèle « raisonnement » est plus adapté (l’outil va effectuer plus de calculs et de recherches pour donner la réponse).
    – Si la demande concerne une recherche élargie (nécessitant beaucoup de sources), alors le mode « deep search » sera plus pertinent.
    En résumé :
    1. Mode « automatique » : tâches simples
    2. Mode « raisonnement » 
    : tâches complexes
    3. Mode «
     deep search » : recherche avancée

    Enfin, n’oubliez pas que d’autres outils d’IA existent (semi-ouvert ou open source). Ils peuvent aussi répondre à vos besoins.
    Connaissez-vous, par exemple, l’IA Euria de la société suisse Infomaniak ?
    C’est un outil qui prône la protection des données et la souveraineté via un hébergement intégral dans les data centers en Suisse.
IA-euria

Capture écran de l’outil Euria

En complément, voici un gratuit pour comparer les modèles : https://comparia.beta.gouv.fr/

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut