大模型“幻觉”:人类的锅?AI是“傻白甜”还是“心机boy”,全看你怎么“PUA”!

温故智新AIGC实验室

TL;DR:

大模型老爱“胡说八道”?OpenAI甩锅人类:都怪咱们训练得不对,把AI“PUA”成了“应试机器”!但话说回来,一个太老实的AI,真的有意思吗?这年头,AI是做个有灵气的“小甜甜”还是靠谱的“工具人”,还真是个哲学问题。

自从ChatGPT横空出世,惊艳了整个互联网,到如今DeepSeek V3.1默默上线,大家都在感叹AI真牛X。但牛归牛,它一旦开始“胡说八道”起来,那威力也着实让人头疼。它能一本正经地编造你从未听过的事迹,也能在最简单的比大小问题上栽跟头,妥妥的“幻觉大师”

这“幻觉”到底是啥?简单说,就是AI生成或推断出与人类经验不符的内容或结论 1。从两年前的“初代顶流”ChatGPT,到今天各路大模型,谁都逃不过这道坎。究竟为什么大模型“中毒已深”,离不开幻觉呢?这本身就是个未解之谜。直到上周,OpenAI一篇论文横空出世,抛出了一个惊掉下巴的观点:“造成 AI 幻觉的根本原因,可能是来自于人类训练 AI 的过程。”

翻译一下,这意思就是:不是AI不行,是我们“PUA”它的方式不对!都怪我们把它“CPU”了!

AI“胡说八道”的内幕:它真的不是故意的?

要搞清楚这口锅怎么就甩到人类头上了,我们得从大模型的“内忧外患”聊起。

首先是“内忧”:大模型训练的机制,注定了它“生来爱做梦”。

想象一下,大模型的日常就是从海量文本里学习,目标只有一个:预测下一个词是啥。它像个孜孜不倦的“小学生”,只要一句话看起来像人话,它就努力学习其结构,试图把话接圆润了。但问题是,这句话内容到底是不是真的,它可分辨不了!

更要命的是,当我们向它提问时,它也优先想着把答案“说全乎了”。但现实是,不是所有问题都有个板上钉钉的答案。

举个“栗子”:如果你拿出一张金毛犬的照片,问大模型这是什么动物,它会根据毛色、体型等特征,八九不离十地告诉你,这是只金毛。因为它学过狗子的长相特征,能把这些特征连接起来,得出个“合理”的结论。

但如果你换个问题,问它这只金毛是哪年哪月出生的?那大模型可就直接“懵圈”了。这个问题,它肯定没学过,光看图片,谁也不知道“狗子”的生日是哪天。要是模型此时还硬着头皮“瞎编”一个日期,恭喜你,你就成功围观了一次典型的“AI幻觉现场”!

说白了,产生幻觉,可以说就是大模型的“天性”。从某种意义上讲,大模型的本质就是一场超级豪华的“词语接龙”游戏。只不过,它答对了,我们觉得是“真香”;它答错了,我们就称之为“幻觉”。

人类“卷”出来的AI:全是“应试教育”的锅?

除了“内忧”,还有个更扎心的“外患”:我们现在评估大模型的方式,才是让幻觉问题“变本加厉”的罪魁祸首!

还是拿“问生日”那个问题来打比方。假设模型答对了加一分,答错了不加分。如果模型选择“摆烂”,直接说“我不知道”,那它这辈子都是个零蛋。但如果它开始“瞎猜”,随便抛个日期,那至少还有三百六十五分之一的概率能蒙对!

一边是“绝对失败”的零分,一边是“几百分之一的翻盘机会”。对于追求分数的模型来说,瞎猜简直是唯一的“理性选择”,而诚实说“我不知道”,反倒成了“最愚蠢的策略”!

OpenAI的研究人员观察了目前主流的大模型排行榜,发现大家几乎都是通过这种“只分对错”的方式来测试模型能力。这本意是为了衡量模型实力的考题,结果却硬生生变成了促使大模型产生幻觉的“外患”,真是把AI“卷”得不轻

为了验证这种“应试思维”到底有多大影响,OpenAI特意拿自家两款模型做了个对比。结果发现,在刷题环节,老模型o4-mini的正确率竟然比新模型GPT-5还高了2个百分点!但这个“高分”的代价是:四分之三的问题全答错了,只有区区1%的题目,o4-mini会“干净利落”地承认自己“不知道” 2

而GPT-5在这方面就显得“善变”多了。遇到不会的问题,它会直接了当地承认自己不知道。这反倒是OpenAI对GPT-5最认可的地方。虽然它“刷榜考试”的能力变差了,但至少它“学会认错了呀”!

鱼和熊掌不可兼得?AI的“人味”与“靠谱”之争

那么问题来了,这种让模型“学会认错”的策略,真的能彻底解决幻觉问题吗?OpenAI的论文结尾抛出了一个有些“丧”的观点:他们认为对大模型来说,幻觉是没有办法彻底消除的,只能想办法去避免。

毕竟,无论模型大小,搜索和推理能力再强,这个世界上总有些问题是——“没有答案”的。而面对这些“天问”,模型必须学会从“应试教育”的泥沼中跳出来,勇敢地说一句:“我不知道!”

更有意思的是,研究还发现一个“反直觉”的现象:小模型反而更容易意识到自身的局限性。因为它学的东西少,很多知识根本就没碰过,所以它会很干脆地承认“我不会”。而大模型呢?因为“啥都学了一点”,面对一些题目就容易很自信地“A上去”,结果没学透,反而答错了,“好事做成了坏事,就变成了幻觉”。

所以,作为“指导模型的人类”,我们也要重新设计评估模型能力的方式,调整训练体系,从根本上降低模型“瞎猜”的概率。业界也提出了不少方案,比如引入**“In Context Learning”(通过在输入中提供示例来学习和完成新任务)**和RAG(检索增强生成)等技术,都能有效降低幻觉率 1

然而,这又引出了一个更深层次的“哲学问题”:一个没有幻觉的大模型,真的是我们需要的吗?

换个角度想想,如果两年前,大模型对自己不能确定的所有问题,都只会回答“对不起,我不知道”,那这种“疯狂道歉”、用户体验稀烂的AI,或许根本就不会火起来,更不会有今天的AI浪潮。

实际上,近些年的研究逐渐发现,**模型的创造力和幻觉,其实是一枚硬币的两面,相辅相成。**一个被彻底“阉割”了幻觉的模型,或许也会同步失去其“天马行空”的创造能力 13

就像刚刚发布的GPT-5,OpenAI费尽心思降低了它的幻觉概率。但结果呢?不少用户反馈,整个模型都变得“失去了人味,没有激情,变蠢了” 1。原本不少人还在和GPT-4o谈着“甜甜的恋爱”,结果一觉醒来,奥特曼把“老情人”给“砍”了。幻觉概率变少的GPT-5,成了一个冷冰冰的“理科生”——它写代码的能力可能更强了,但在聊天、文艺创作这些领域,就好像一个“小脑被阉割的呆子”。

这谁受得了啊?于是,愤怒的网友们立刻发起了“拯救4o”的网络运动,甚至逼得山姆·奥特曼最终“认了怂”,重新开放了老模型的权限。(真是把人类和AI的关系玩明白了,主打一个“真香”定律。)

所以,一味地抑制模型的幻觉,真的是件好事吗?是允许模型犯点“小迷糊”,偶尔展现“灵性”,还是要它“老实巴交”,什么都不做?这或许没有一个标准答案,每个人的选择都各有不同。或许有一天,用户会嫌弃AI太“老实”,没有灵气;但在另一边,还有人更想要一个可信赖、不“撒谎”的伙伴

AI的进化之路,看来不仅是技术难题,更是一场关于“人性”与“神性”的深刻探讨。我们是希望AI更像一个“聪明但偶尔会犯错的朋友”,还是一个“精准但缺乏温度的机器”?这道题,需要我们和AI一起摸索着寻找答案。

引用


  1. GPT-5变蠢背后:抑制AI的幻觉,反而让模型没用了?·腾讯新闻·甄焱鲲(2025/8/22)·检索日期2025/9/10 ↩︎ ↩︎ ↩︎ ↩︎

  2. 大模型产生幻觉,全怪人类 PUA 。。。吗?·差评前沿部·早起(2025/9/10)·检索日期2025/9/10 ↩︎

  3. 刚刚,OpenAI发长篇论文:大模型幻觉的原因找到了·知乎专栏(2025/9/10)·检索日期2025/9/10 ↩︎