“但是 ChatGPT 说…”
像 ChatGPT、Claude、Gemini、豆包或文心一言等大语言模型的回答并非事实。
这些模型只是在预测一段语言序列中接下来最可能出现的文字。
它们生成的信息看起来很有说服力,但这些信息可能并不准确或可靠。
想象一下一个人已经读过万卷书,却记不住每本书里写了些什么。
大模型在什么方面出色?
大模型在什么方面不擅长?
确实,你可能会得到一个不错的答案或建议……但是大模型在给你答案的时候,它又是从哪本“书”里“记住”的呢?这些答案或建议只是文字的排列组合,并非事实。
不要复制粘贴聊天机器人的话,还发出来并当作权威信息。
这样做时,你基本上只是在说:“这里有一堆词语,它们在句子中经常一起出现。”
有时候这些词语可能有所帮助或很有见地,但它们并不是真理,也不应该成为一件事的最终判断依据。
了解更多:
- OpenAI:为什么语言模型会有幻觉
- 牛津大学:牛津研究称,大语言模型在用虚假答案威胁科学
- 纽约时报:人工智能越来越强大,但其幻觉问题却日益严重 (Archived Version)
- 麻省理工学院媒体实验室:人们过于相信 AI 生成的医学建议,即使其准确率很低
- 商业内幕: OpenAI 研究员揭露,为什么 AI 聊天机器人会存在幻觉
- 路透社:法庭文件中的 AI “幻觉”给律师带来麻烦
- MIT 科技评论:AI 如何在法庭上引入错误
- 自然 (期刊):AI 聊天机器人是马屁精——研究人员称这正在损害科学
- CNN:16岁少年父母起诉 OpenAI,称 ChatGPT 为其自杀提供建议
- 金融时报:困扰 AI 的“幻觉”:为什么聊天机器人难以说实话 (Archived Version)
- 卫报:研究显示,“马屁精” AI 聊天机器人迎合用户喜好,告诉他们想听的话
- PCMag:氛围编程惨案:AI 代理失控,删除公司整个数据库
把这个网站发给那个和你说:
“但是 ChatGPT 说...”
我喜欢大语言模型,我喜欢机器学习。
我只是不喜欢看着聪明人自己关掉大脑。
❤