Il semble qu’une nouvelle IA générative apparaisse partout où vous vous tournez. ChatGPT reste populaire, Google Bard continue de recevoir des mises à jour, Dall-E2 est au sommet du jeu de création d’images, etc. Ces applications d’intelligence artificielle sont conviviales. Vous pouvez vous connecter dans votre Android dès maintenant et utilisez-les pour afficher toutes sortes d’informations dans presque tous les formats de votre choix.
Cela a été un casse-tête pour les enseignants qui essayaient de surprendre les étudiants à utiliser des chatbots pour rédiger des dissertations. Les professionnels expérimentent l’utilisation de l’IA pour rédiger des e-mails, des listes de produits et des réflexions avec des résultats mitigés. Cette expérimentation a mis en évidence un problème commun et difficile que tout utilisateur d’IA doit connaître : les hallucinations.
Les hallucinations de l’IA ressemblent à une intrigue médiocre dans une série de science-fiction, mais ces mensonges constituent un problème dans les algorithmes de l’IA et ont des conséquences pour les personnes qui dépendent de l’IA. Voici ce que vous devez savoir à leur sujet.
Qu’est-ce qu’une hallucination de l’IA ?
Une hallucination de l’IA se produit lorsqu’un modèle d’IA génératif fournit des informations pour une invite qui ne sont pas correctes ou n’existent pas dans le monde réel. Par exemple, si vous demandez à l’IA : « Combien y a-t-il de tulipes dans le monde ? et l’IA répond : « Il y a trois tulipes pour chaque personne vivante dans le monde », c’est une hallucination.
Cette statistique est fausse. Personne ne l’a jamais créé ni étudié dans le monde réel. L’IA a tout inventé toute seule. Cela se produit tout le temps avec les données, les statistiques et les chiffres cités par l’IA. Les chatbots peuvent même créer de fausses affaires judiciaires qui causent des ennuis aux avocats ou citer la mauvaise recherche médicale pour étayer une théorie médicale.
Pour les IA basées sur l’image, une hallucination peut être comme l’habitude de ne pas comprendre comment fonctionnent les mains humaines ou de confondre un tigre avec un chat domestique dans une invite. Cependant, les hallucinations sont plus communément associées à l’IA conversationnelle.
Qu’est-ce qui cause les hallucinations de l’IA ?
L’IA générative est créée à partir de LLM, ou grands modèles de langage, un modèle d’apprentissage automatique qui entraîne de nombreux ensembles de données générés par l’homme (contenu en ligne). Ils analysent de nombreux textes trouvés en ligne (ou des images, selon leur spécialité) et les décomposent en identifiants et formules qu’ils peuvent utiliser pour créer des phrases à consonance humaine. C’est comme une forme avancée d’imitation, et les IA ont besoin de beaucoup de formation minutieuse avant de pouvoir paraître humaines. À terme, les outils d’IA conversationnelle peuvent fournir des informations en langage naturel, mais cela ne signifie pas pour autant que ce qu’ils disent est exact.
Les systèmes d’IA conversationnelle sont conçus pour répondre à des invites comme dans ChatGPT d’OpenAI et d’autres chatbots d’IA. Ils doivent dire quelque chose. Entre l’imitation du langage humain et l’analyse des données en ligne, ils inventent parfois des choses pour répondre naturellement aux invites. Les robots basés sur l’IA visent à ressembler à des humains, pas nécessairement à tout faire correctement, de sorte que des informations incorrectes peuvent s’infiltrer. Lorsque les IA hallucinent, cela est dû à des éléments tels que :
- Formation en IA médiocre ou manquante, y compris une mauvaise sélection de données d’entraînement ou des données d’entraînement de mauvaise qualité.
- « Surajuster » ou entraîner une IA trop précisément sur un sujet limité pour qu’elle ne sache pas quoi dire aux invites et crache des informations chaotiques.
- Répéter des informations erronées diffusées en ligne par des humains, y compris des informations malveillantes.
- Les préjugés humains ou les émotions que les outils d’IA captent et imitent au mauvais moment.
- En utilisant un modèle complexe qui collecte et analyse tellement d’informations, avec tellement d’options de génération de contenu, que même les bonnes IA ont du mal à identifier ce qui est réel et ce qui ne l’est pas.
Est-ce que toutes les IA ont des hallucinations ?
Toutes les IA peuvent faire des erreurs. Les hallucinations sont généralement un problème spécifique à l’IA générative, ou à l’IA conçue pour répondre à des invites. Lorsqu’il s’agit de ce type d’IA, aucune d’entre elles n’est parfaite. Il a été constaté que chacun d’entre eux avait des hallucinations au moins occasionnellement. L’IA destinée aux consommateurs a tendance à intégrer des contrôles pour éviter les hallucinations, mais rien n’est parfait. À un moment donné, vous découvrirez des informations inexactes.
Comment reconnaître une hallucination IA ?
Une partie du problème réside dans le fait que les chatbots avancés et les IA similaires peuvent sembler convaincants. Ils citent des hallucinations parce qu’ils « croient » qu’elles sont aussi vraies que n’importe quel autre type de données. L’utilisateur doit se charger de la relecture. Vérifiez à nouveau lorsqu’une IA générative fait une réclamation, en particulier concernant des chiffres, des dates, des personnes ou des événements. Surveillez les informations contradictoires dans une réponse ou les chiffres qui ne semblent pas adaptés à l’invite.
Ne faites pas confiance aux robots pour fournir des informations fiables sans y regarder de plus près. Il existe des exemples de ChatGPT confondant des personnages fictifs et d’autres fausses informations auxquelles vous ne vous attendez peut-être pas. Pratiquez toujours votre propre vérification des faits.
Puis-je prévenir les hallucinations en utilisant l’IA ?
Vous ne pouvez pas prévenir les problèmes d’hallucinations, mais vous pouvez les réduire et obtenir une meilleure réponse. Pratiquez des habitudes comme celles-ci :
- Abaissez la « température » de l’IA. Ce paramètre contrôle le degré de randomisation de l’IA et peut limiter les inexactitudes (il réduit également la créativité des réponses).
- Évitez d’utiliser des termes d’argot lors de la création d’une invite.
- Ne posez pas de questions ouvertes. Demandez des informations spécifiques.
- Remplissez les invites avec des informations utiles que l’IA peut utiliser pour affiner sa réponse.
- Formulez la question en demandant à l’IA d’imiter un professionnel du domaine, comme un enseignant ou un banquier (cela semble étrange, mais cela aide souvent).
- Dites à l’IA ce que vous ne le faites pas je veux savoir s’il fournit des informations aléatoires. Vous pouvez également lui demander des citations que vous pourrez vérifier.
Les hallucinations de l’IA sont-elles dangereuses ?
Les hallucinations de l’IA sont dangereuses de deux manières. Premièrement, ils peuvent fournir des informations erronées alors que vous souhaitez obtenir les bonnes informations. Cela peut être drôle, comme lorsqu’un étudiant soumet un essai créé par l’IA affirmant qu’Abraham Lincoln a développé l’automobile Lincoln. Cela peut aussi être irritant, comme lorsqu’une IA crée une recette pour vous mais vous dit d’utiliser deux cuillères à soupe d’acide sulfurique au lieu de bicarbonate de soude ou simule une ligne sur votre CV. Dans le pire des cas, les personnes qui suivent des instructions incorrectes pourraient se blesser ou avoir des ennuis.
À un niveau plus profond, les hallucinations de l’IA peuvent créer de gros problèmes liés à la désinformation. Que se passe-t-il si vous interrogez une IA sur des statistiques relatives à un sujet d’actualité comme l’immigration ou les vaccins, et que l’IA hallucine des chiffres ? Des gens ont tué et sont morts pour ces sujets sur la base d’informations trouvées en ligne. Lorsque les utilisateurs croient à une hallucination, les gens peuvent être blessés. C’est l’une des raisons pour lesquelles on s’efforce de se débarrasser des hallucinations.
Les développeurs peuvent-ils corriger les hallucinations de l’IA ?
Ils y travaillent. GPT-4 est meilleur que GPT 3.5, et ainsi de suite. Les développeurs peuvent utiliser de nombreuses astuces pour créer des paramètres et des garde-fous afin d’empêcher l’IA d’halluciner. Cela peut nécessiter une formation supplémentaire, un recyclage ou une puissance de traitement supplémentaire, ce qui implique des coûts. Idéalement, l’IA générative continue de s’affiner et les hallucinations deviennent de plus en plus rares.
Méfiez-vous de l’hallucination courante de l’IA
Vous connaissez désormais les tenants et les aboutissants des hallucinations de l’IA et pourquoi vous ne pouvez pas faire confiance à l’IA générative pour des détails spécifiques. Gardez cela à l’esprit lorsque vous demandez à l’IA des réponses ou des rapports sur un sujet, et vous ne serez jamais surpris par cette faille. En attendant, consultez nos articles sur comment Google veut vos photos pour l’IA et comment fonctionne un LLM.