☀️

“Maar ChatGPT zei dat…”

Je bent hier omdat je AI als een bron gebruikte om een punt te maken.

Antwoorden van Large Language Models (LLM's) als ChatGPT, Claude en Gemini zijn geen feiten.

Ze voorspellen welke woorden het waarschijnlijkst volgen op woorden in een zin.

De informatie die ze geven kan overtuigend klinken, maar die hoeft niet waar of betrouwbaar te zijn.

Stel je iemand voor die duizenden boeken gelezen heeft, maar niet onthouden heeft waar die wat las.


Waar zou die persoon goed in zijn?


En waar zou die persoon slecht in zijn?


Natuurlijk, je kan een kloppend antwoord of goed advies krijgen… maar welke “boeken” zijn het die de AI “herinnerde” om tot dat antwoord of advies te komen? Het antwoord is een veelvoorkomende combinatie van woorden, geen feit.

Kopiëer niets wat een chatbot zegt alsof het een feit is.

Daarmee zeg je eigenlijk: “hier is een handjevol woorden dat vaak samen gaat in een zin.”

Soms kan het handig zijn of inzicht geven. Maar het is geen waarheid, en het is nooit een definitieve bron in een kwestie.

Lees meer:

Stuur dit naar iemand die net zei:
“Maar ChatGPT zei dat…”

I vind LLM's leuk. I vind Machine Learning leuk.
Maar ik vind het zonde om te zien wanneer slimme mensen hun hersens uit zetten.