☀️

「でもChatGPTはこう言ってて……」

あなたは何かを示そうとして情報源にAIを引用したのでここに送られました。

ChatGPT、Claude、Geminiなどの大規模言語モデル(LLM)の応答は事実ではありません。

それらは順序に従ってどんな単語が次に来るのがもっともらしいか予測しています。

それらは説得力があるように見える情報を生成することはできますが、その情報は正確でなかったり、信頼できなかったりします。

何千冊もの本を読んだけれど、何をどの本で読んだか思い出せない人を想像してください。


その人はどんなことが得意でしょうか?


その人はどんなことが苦手でしょうか?


確かに、あなたは正しい答えや良い助言を得られる可能性がないとは言い切れません。しかし、それはどの「本」を「思い出し」て出した答えなのでしょうか? その答えや助言は単語のよくある組み合わせであって、事実ではありません。

チャットボットが言ったことをコピペして信頼できるかのように誰かに送るのはやめましょう。

それをしたとき、基本的にあなたは「ある文中に一緒によく出てくる単語はこれらです」と言っているようなものです。

時にはそれが役に立ったり本質を突いていたりしないとも限りませんが、真実ではありませんし、問題についての最終的な意見では決してありません。

参考文献:

誰かがあなたに
「でもChatGPTはこう言ってて……」
と言ったらこれを送ってください

私はLLMが好きです。私は機械学習が好きです。
私は賢い人達が頭を使わなくなるのを見るのが好きではないだけです。