☀️

“但是 ChatGPT 说…”

之所以你在这,是因为你引用了 AI 当作你证明某件事的论据。

像 ChatGPT、Claude、Gemini、豆包或文心一言等大语言模型的回答并非事实。

这些模型只是在预测一段语言序列中接下来最可能出现的文字。

它们生成的信息看起来很有说服力,但这些信息可能并不准确或可靠。

想象一下一个人已经读过万卷书,却记不住每本书里写了些什么。


大模型在什么方面出色


大模型在什么方面不擅长


确实,你可能会得到一个不错的答案或建议……但是大模型在给你答案的时候,它又是从哪本“书”里“记住”的呢?这些答案或建议只是文字的排列组合,并非事实。

不要复制粘贴聊天机器人的话,还发出来并当作权威信息。

这样做时,你基本上只是在说:“这里有一堆词语,它们在句子中经常一起出现。”

有时候这些词语可能有所帮助或很有见地,但它们并不是真理,也不应该成为一件事的最终判断依据。

了解更多:

把这个网站发给那个和你说:
“但是 ChatGPT 说...”

我喜欢大语言模型,我喜欢机器学习。
我只是不喜欢看着聪明人自己关掉大脑。