“Aber ChatGPT hat gesagt…”
Antworten von Large Language Modellen wie ChatGPT, Claude, oder Gemini sind keine Fakten.
Sie versuchen die Worte vorherzusagen, die in einem Text am wahrscheinlichsten als nächstes vorkommen.
Sie können überzeugend klingende Informationen erzeugen, aber diese Informationen sind nicht unbedingt korrekt oder zuverlässig.
Stell dir vor, eine Person hat tausende Bücher gelesen, aber kann sich nicht erinnern, wo sie was gelesen hat.
Worin könnte diese Person gut sein?
Worin könnte diese Person schlecht sein?
Sicher, du könntest eine Antwort bekommen, die richtig ist oder einen Rat, der gut ist… Aber an welches “Buch” “erinnert” sich die Person, wenn sie die Antwort gibt? Die Antwort oder der Rat ist eine typische Kombination von Wörtern, kein Fakt.
Kopiere nicht einfach irgendetwas, was ein Chatbot gesagt hat und schicke es jemandem, als wäre es verlässlich.
Wenn du das tust, sagst du im Prinzip “Hier sind ein paar Wörter, die oft in einem Satz zusammen vorkommen.”
Manchmal kann das hilfreich oder aufschlussreich sein. Aber es ist keine Wahrheit, und vor allem ist es nicht das letzte Wort in einer Diskussion.
Literaturhinweise:
- KI und die Halluzinationen: Warum sind so viele Antworten falsch?
- KI erfindet jede dritte Antwort
- OpenAI: Why language models hallucinate
- Oxford University: Large Language Models pose risk to science with false answers, says Oxford study
- New York Times: A.I. Is Getting More Powerful, but Its Hallucinations Are Getting Worse (Archived Version)
- MIT Media Lab: People Overtrust AI-Generated Medical Advice despite Low Accuracy
- Business Insider: Why AI chatbots hallucinate, according to OpenAI researchers
- Reuters: AI 'hallucinations' in court papers spell trouble for lawyers
- MIT Technology Review: How AI is introducing errors into courtrooms
- Nature: AI chatbots are sycophants — researchers say it's harming science
- CNN: Parents of 16-year-old sue OpenAI, claiming ChatGPT advised on his suicide
- Financial Times: The ‘hallucinations’ that haunt AI: why chatbots struggle to tell the truth (Archived Version)
- The Guardian: ‘Sycophantic’ AI chatbots tell users what they want to hear, study shows
- PCMag: Vibe Coding Fiasco: AI Agent Goes Rogue, Deletes Company’s Entire Database
Schicke das einer Person, die zu dir gesagt hat,
“Aber ChatGPT hat gesagt...”
Ich mag LLMs. Ich mag Machine Learning.
Ich möchte nur nicht sehen, wie kluge Menschen ihr Gehirn abschalten.
❤