☀️

“Aber ChatGPT hat gesagt…”

Du wurdest hierhergeschickt, weil du KI als Quelle benutzt hast, um etwas zu beweisen.

Antworten von Large Language Modellen wie ChatGPT, Claude, oder Gemini sind keine Fakten.

Sie versuchen die Worte vorherzusagen, die in einem Text am wahrscheinlichsten als nächstes vorkommen.

Sie können überzeugend klingende Informationen erzeugen, aber diese Informationen sind nicht unbedingt korrekt oder zuverlässig.

Stell dir vor, eine Person hat tausende Bücher gelesen, aber kann sich nicht erinnern, wo sie was gelesen hat.


Worin könnte diese Person gut sein?


Worin könnte diese Person schlecht sein?


Sicher, du könntest eine Antwort bekommen, die richtig ist oder einen Rat, der gut ist… Aber an welches “Buch” “erinnert” sich die Person, wenn sie die Antwort gibt? Die Antwort oder der Rat ist eine typische Kombination von Wörtern, kein Fakt.

Kopiere nicht einfach irgendetwas, was ein Chatbot gesagt hat und schicke es jemandem, als wäre es verlässlich.

Wenn du das tust, sagst du im Prinzip “Hier sind ein paar Wörter, die oft in einem Satz zusammen vorkommen.”

Manchmal kann das hilfreich oder aufschlussreich sein. Aber es ist keine Wahrheit, und vor allem ist es nicht das letzte Wort in einer Diskussion.

Literaturhinweise:

Schicke das einer Person, die zu dir gesagt hat,
“Aber ChatGPT hat gesagt...”

Ich mag LLMs. Ich mag Machine Learning.
Ich möchte nur nicht sehen, wie kluge Menschen ihr Gehirn abschalten.