« Mais ChatGPT a dit… »
Les réponses des grands modèles de langage comme ChatGPT, Claude ou Gemini ne sont pas des faits.
Ils prédisent quels mots ont le plus de chances de venir ensuite dans une phrase.
Ils peuvent générer des réponses convaincantes, mais ces informations ne sont pas forcément exactes ou fiables.
Imaginez quelqu'un qui a lu des milliers de livres, mais qui ne se souvient plus où il a lu quoi.
À quoi pourrait-il être bon?
Et à quoi pourrait-il être mauvais?
Bien sûr, il se pourrait que vous obteniez une réponse correcte ou un bon conseil… mais de quels « livres » se souvient-il quand il donne cette réponse ? Cette réponse ou ce conseil est juste une combinaison courante de mots, pas un fait.
Ne copiez-collez pas ce qu'un chatbot dit, puis l'envoyez à quelqu'un comme si c'était une référence autorisée.
Quand vous faites cela, vous dites simplement « voici un paquet de mots qui vont souvent ensemble dans une phrase ».
Parfois cela peut être utile ou pertinent. Mais ce n'est pas une vérité, et encore moins une conclusion définitive.
Pour approfondir le sujet :
- OpenAI : Pourquoi les modèles de langage font-ils des hallucinations
- Université d'Oxford : Les modèles linguistiques présentent un risque pour la science avec des réponses erronées
- New York Times : L'IA devient plus puissante, mais ses hallucinations empirent (Archived Version)
- MIT Media Lab : Les gens font trop confiance aux conseils médicaux générés par l'IA malgré leur faible précision
- Business Insider : Pourquoi les chatbots IA hallucinent, selon les chercheurs d'OpenAI
- Reuters : Les « hallucinations » de l'IA dans des documents juridiques deviennent problématiques pour les avocats
- MIT Technology Review : Comment l'IA introduit des erreurs dans les tribunaux
- Nature : Les chatbots IA sont des « flatteurs » — ce qui nuit à la science, selon des chercheurs
- CNN : Les parents d'un adolescent poursuivent OpenAI, affirmant que ChatGPT a conseillé son suicide
- Financial Times : Les « hallucinations » qui hantent l'IA : pourquoi les chatbots ont du mal avec la vérité (Archived Version)
- The Guardian : Les chatbots IA « flatteurs » disent aux utilisateurs ce qu'ils veulent entendre, selon une étude
- PCMag : Fiasco Vibe Coding : Une IA supprime toute la base de données d'une entreprise
- The Conversation : Quand l'IA fait n'importe quoi, le cas du gratte-ciel et du trombone à coulisse
Envoyez ceci à quelqu'un qui vient de vous dire,
« Mais ChatGPT a dit… »
J'aime les LLM. J'aime l'apprentissage automatique (Machine Learning).
Je n'aime tout simplement pas voir des personnes intelligentes éteindre leur cerveau.
❤