☀️

« Mais ChatGPT a dit… »

Vous avez été envoyé ici parce que vous avez cité l'IA comme source pour appuyer un argument.

Les réponses des grands modèles de langage comme ChatGPT, Claude ou Gemini ne sont pas des faits.

Ils prédisent quels mots ont le plus de chances de venir ensuite dans une phrase.

Ils peuvent générer des réponses convaincantes, mais ces informations ne sont pas forcément exactes ou fiables.

Imaginez quelqu'un qui a lu des milliers de livres, mais qui ne se souvient plus où il a lu quoi.


À quoi pourrait-il être bon?


Et à quoi pourrait-il être mauvais?


Bien sûr, il se pourrait que vous obteniez une réponse correcte ou un bon conseil… mais de quels « livres » se souvient-il quand il donne cette réponse ? Cette réponse ou ce conseil est juste une combinaison courante de mots, pas un fait.

Ne copiez-collez pas ce qu'un chatbot dit, puis l'envoyez à quelqu'un comme si c'était une référence autorisée.

Quand vous faites cela, vous dites simplement « voici un paquet de mots qui vont souvent ensemble dans une phrase ».

Parfois cela peut être utile ou pertinent. Mais ce n'est pas une vérité, et encore moins une conclusion définitive.

Pour approfondir le sujet :

Envoyez ceci à quelqu'un qui vient de vous dire,
« Mais ChatGPT a dit… »

J'aime les LLM. J'aime l'apprentissage automatique (Machine Learning).
Je n'aime tout simplement pas voir des personnes intelligentes éteindre leur cerveau.