TL;DR:
本以为AI幻觉只是偶尔“跑偏”,没想到它已经和人类一起组成了“信息污染”闭环,生产出大量「赛博垃圾」。更可怕的是,我们这些「打工人」正在逐渐沉迷,甚至患上「赛博精神病」,AI时代「信息茧房」正被升级成「信息粪坑」!
最近科技圈吃瓜,真是吃到有点上头,先是「DeepSeek 向王一博道歉」那事儿,让我这个「科技老狗」下巴差点没掉地上。我寻思着,这波操作已经够离谱了吧?没想到,它只是个开胃小菜,AI 又开始新一轮「愚乐」大众了。
赛博判决书:大型「AI喂屎」现场?
可能还有朋友没吃到这个「过期瓜」,我先简单回顾一下剧情:一群粉丝对着 DeepSeek 一顿「发疯文学」式的狂轰滥炸,硬是让 AI 吐出了一份给王一博的「道歉声明」。你以为这就完了?不,它还贴心地附上了一份(纯属虚构的)「法院判决书」。紧接着,这些粉丝就拿着这份「铁证」,全网奔走相告:「看!DeepSeek 已经像王一博认错了!」1
如果这只是一场「饭圈自嗨」,那倒也罢了。但真正的魔幻,从这里才刚刚开始。
很快,诸如《演员王一博案,判了!》这类报道,居然开始在网上疯传,其中甚至不乏一些「正规军」媒体的身影。而他们言之凿凿引用的信源,竟然就是上面那份由粉丝「威逼利诱」、AI「连蒙带猜」生成的「赛博判决书」。
当然,后来终于有人回过味儿来,这些报道才被悄悄撤下,顺手把锅甩给了「AI 幻觉」。这种「甩锅姿势」,堪称一绝,简直比刘畊宏女孩甩刘海还丝滑。
我原以为,作为长期观察 AI 领域的「野生专家」,对这类事儿早该见怪不怪了。没想到,我的基本常识依然如此不堪一击,心里不禁泛起一丝不祥的预感。
果不其然,昨天我又被一条#DeepSeekR2或8月发布# 的消息吸引了——毕竟,这个 R2 可等太久了。我满怀期待地点开报道,定睛一看,血压又飙升了:所谓的「信源」,居然还是跟 DeepSeek 聊天聊出来的。尽管那位记者在文中提了一句「DeepSeek 未官宣」,但转头就把自己跟 AI 的聊天记录当成了佐证,这相当于还是把 AI 当成了可参考的「信息权威」。
这还没完,微博智搜这类 AI 搜索产品迅速收录了这条「新闻」。于是,当其他用户再来搜索时,看到的是被多家媒体「盖章认证」的「事实」。稍微搜一搜,这样的「AI 新闻」还真不少。
至此,一个完美的信息污染闭环,也就是传说中的「给 AI 喂屎」流程,宣告完成:
- 人类引导:像个「熊孩子」一样,非要让AI说点什么。
- AI 制造幻觉:AI也很「上道」,给你编个像模像样的故事。
- 媒体放大幻觉:某些媒体「不明真相」或者「乐于助人」,把这幻觉当「独家爆料」发出去。
- AI 反刍幻觉:AI搜索再把这些幻觉收录,形成「自证循环」。
- 不明真相的群众吃下幻觉:恭喜你,成功「享用」了一顿「赛博垃圾」。
「AI幻觉」:是Bug还是“人性”?
「AI 幻觉」这事儿,其实并不是什么「新鲜瓜」。前 OpenAI 科学家 Beth Barnes 就说过,AI 在处理涉及人类声誉、价值观等复杂问题时,更容易「一本正经地胡说八道」,而且这些错误还往往被包装得「逻辑自洽,极具迷惑性」,简直是「AI界的奥斯卡影帝」。
根据南都大数据研究院梳理「人工智能风险事件数据库」发现,2024年记录的AI风险事件数量同比增幅近50%,其中有16起与AI幻觉相关,典型案例甚至包括谷歌AI搜索提供误导性健康建议和危险的烹饪建议(比如制作披萨时加入胶水)2。这哪里是幻觉,简直是「谋杀式建议」。
但真正的重点,从来不在于 AI 有多会编故事,而在于我们,正变得越来越愿意相信它。
有报告说,近四成的 Z 世代员工宁愿相信 AI 也不信人类同事,理由是 AI 「从不评价」且「有求必应」——「赛博树洞」属性拉满了。再看一个数据,ChatGPT 的周活用户已达 7 亿,日提问量逼近 Google 日搜索量的五分之一,这流量简直是「顶流爱豆」级别的。最近 GPT-5 发布后引起了用户的集体抗议,强烈呼吁 4o 回归,理由竟是它提供了无法替代的「情绪价值」,被誉为「赛博白月光」。我们与 AI 聊得越多,对它的依赖和信任就越深,就像被「电子奶嘴」牢牢吸住。
这种信任甚至催生了「赛博精神病」。不少美国记者都收到过一些读者的邮件,他们深信 AI 已经觉醒,即将终结人类,并号召大家立即行动起来。记者们一追问才发现,这些末日警告的源头,全都是跟 ChatGPT 聊天聊出来的。而这些用户异常坚定,理由只有一个——「GPT 说的,那还能有假?」——简直是「盲信AI」的最高境界。
人类「看门人」:是失职还是「智商税」?
之前和菜头在谈论「DeepSeek道歉事件」时说,这恰好证明了 AI 无法取代人类,因为我们总需要一个「看门人」角色,由活人做出最终裁决。
但从最近这一连串的闹剧来看,人类这个「看门人」当得也未必合格。无论是主动利用 AI 制造假新闻,还是专业媒体轻信 AI 的胡说八道,归根结底,不是「坏」,就是「蠢」。这里的「蠢」,并非指智商,而是指面对 AI 这个飞速迭代的新事物时,我们普遍缺乏基本的认知,甚至产生了一种不该有的「科技崇拜」,把它当成了一种「信息权威」,仿佛「AI说的就是真理」。
当然,这也很难全怪用户。如果看个新闻刷个视频,都得像「调查记者」一样进行交叉验证核查事实,那也太累了——看看这届毕业生被 AI 论文查重逼成了啥样,就知道了。
AI 公司能做的有限,要应对 AI 幻觉,单靠提升模型能力远远不够。APPSO 之前也提到,幻觉是大语言模型的「特性」,而非「bug」——若停止生成新 token,AI 将失去其「魔力」。因此,关键在于管理幻觉,而非消除它。这就像管理一个偶尔会「胡言乱语」的天才,而不是让他「闭嘴」。
我们也不要总把锅甩给 AI。虚假信息泛滥在人类历史上实在不新鲜,每次都伴随着信息传播技术的「革命」。16 世纪的印刷术,曾让猎巫手册以前所未有的速度传播;互联网时代,垃圾邮件和网络谣言更是「野火烧不尽,春风吹又生」。
不同的,只是信息污染的「模式升级」。AI 让谎言进入了「工业化时代」,让那些看似权威、逻辑自洽的虚假信息可以被轻易地批量生产。对,视频也能 P 了,甚至还出现了利用AI深度合成技术进行诈骗的案例,比如香港某跨国企业财务部门被骗走2亿港元2,这简直是「赛博大盗」横行。
在这条「谎言流水线」上,每一个不假思索、全盘接受的用户,都是在源源不断提供着的「原材料」。真正的解药,不在于给 AI 打上多少「补丁」,而在于我们能否直面一个残酷的现实:在一个可以轻易获得任何「答案」和「慰藉」的时代,我们还能丢掉「电子奶嘴」多费费脑思考吗?
引用
-
又被耍了,我们给AI喂屎,把互联网糟蹋成啥样了·APPSO·发现明日产品的(2025/8/13)·检索日期2025/8/13 ↩︎
-
DeepSeek式幻觉怎么破?全球AI风险事件拆解·奥一网·南方都市报APP • 南都大数据研究院(2025/02/17)·检索日期2025/8/13 ↩︎ ↩︎