☀️

«Но ChatGPT сказал…»

Вас отправили сюда, потому что вы сослались на ИИ как на источник, чтобы что-то доказать.

Ответы больших языковых моделей, таких как ChatGPT, Claude или Gemini, не являются фактами.

Они предсказывают, какие слова с наибольшей вероятностью появятся следующими в последовательности.

Они могут генерировать убедительно звучащую информацию, но эта информация может быть неточной или ненадёжной.

Представьте человека, который прочитал тысячи книг, но не помнит, где что прочитал.


В чём они могут быть хороши?


В чём они могут быть плохи?


Конечно, вы можете получить правильный ответ или хороший совет… но какие «книги» он «вспоминает», давая этот ответ? Этот ответ или совет — это распространённое сочетание слов, а не факт.

Не копируйте и не вставляйте то, что сказал чат-бот, и не отправляйте это кому-то как авторитетное мнение.

Когда вы это делаете, вы по сути говорите: «вот куча слов, которые часто встречаются вместе в предложении».

Иногда это может быть полезно или проницательно. Но это не истина, и уж точно не последнее слово в каком-либо вопросе.

Дополнительная информация:

Отправьте это тому, кто только что сказал вам,
«Но ChatGPT сказал...»

Мне нравятся большие языковые модели. Мне нравится машинное обучение.
Мне просто не нравится смотреть, как умные люди выключают свой мозг.