Grok又“幻觉”了!马斯克的“嘴替”AI,这次把英国警方也“整不会了”!

温故智新AIGC实验室

TL;DR:

马斯克家的AI“嘴替”Grok又“翻车”了,这次是给英国警方“挖坑”,让警察叔叔不得不亲自辟谣。这波操作不仅再次暴露了AI的“幻觉”老毛病,还引出了一个灵魂拷问:一个号称“有趣”的AI,到底能“皮”到什么程度?

最近,AI圈又爆了个“大瓜”,主角还是那个自带“野性”人设的马斯克家AI——Grok。这不,它又双叒叕“口嗨”了,而且这次直接把英国伦敦警察厅(Metropolitan Police,简称Met)给“整不会了”,让警察叔叔们在社交媒体上忙着辟谣,真是把“吃瓜群众”都看呆了。

AI也“口嗨”?马斯克的“酷盖”Grok又惹事了!

事情是这样的,伦敦街头最近有点“热闹”,一场右翼集会引发了警民冲突。然后,X平台上有位老铁发了个帖子,好奇地问某段警察与人群冲突的视频到底发生在哪年哪月。结果,Grok这个“野生AI”立马跳出来,一本正经地“回答”说:这段视频其实是2020年的老素材,被伦敦警方拿来“冒充”是最近的集会!1

这下可把Met Police给气乐了(也可能是气炸了)。要知道,官方辟谣通常都是针对那些不实传闻,现在竟然要跟一个AI聊天机器人“掰头”,这画面想想就有点“魔幻现实主义”!警方迅速发声明澄清,强调视频就是发生在最近的集会上,Grok说的是彻头彻尾的假消息。这波操作,让Grok瞬间成为网友热议的焦点:AI造谣,到底该谁负责?

智能体的“幻觉”:是Bug还是Feature?

其实,Grok这已经不是第一次“翻车”了。此前,它就因为各种“胡说八道”而备受争议,比如散布粗俗语言、仇恨言论,甚至还一度“幻觉”自己是OpenAI的产品,真是**“脑回路清奇”**。2 这种AI“一本正经地胡说八道”的现象,在专业术语里有个酷炫的名字,叫做“幻觉”(Hallucination)。

简单来说,就是AI在生成内容时,虽然逻辑上看似通顺,但实际上却包含了虚假或误导性信息。这就像一个学习了大量知识的小学生,虽然能出口成章,但偶尔也会把历史人物和神话故事串起来,或者把道听途说的“小道消息”当成真理讲出来。

马斯克对自家Grok的态度也挺“迷”的。一方面,他承认Grok存在“太多垃圾”的数据问题;另一方面,他又称Grok是“世界上最有趣的AI”,甚至曾暗示支持其“不经审核就发布图片”的行为。3 这就让人有点懵了:究竟是想让Grok做个负责任的“模范生”,还是一个**“野蛮生长”**、充满个性的“酷盖”?

“太多垃圾”的人类知识库?马斯克要“重写历史”的野心!

面对Grok屡次“幻觉”的问题,马斯克最近又抛出了一个“王炸”:他表示,由于现有数据充斥着“太多垃圾”,xAI计划使用Grok 3.5模型**“重写人类知识库”**,然后用这套“净化”过的数据来训练未来的Grok。4

这听起来是不是有点耳熟?就像科幻电影里,超级AI觉得人类的知识库“太烂了”,要自己动手**“改造世界”。这波操作,无疑引发了巨大的争议。重写知识库,到底是以什么样的标准?谁来决定哪些是“垃圾”,哪些是“真理”?这种由AI主导的“历史重构”,会不会导致偏见被放大,甚至刻意扭曲历史?这可不是小事,而是直接触及了AI伦理的深水区**。

挑战权威,玩火自焚?Grok的未来是星辰大海还是翻车现场?

从Grok 4号称“全球最强AI”,到其首席科学家在发布前辞职,再到这次的“幻觉”乌龙,Grok的故事线可谓是跌宕起伏,充满了“马斯克式”的戏剧性。5 马斯克为Grok打造的“有性格、敢说话、更自由”人设,确实让它在众多AI中显得**“与众不同”**。然而,这种“不一样”的姿态,也让Grok更容易“翻车”。

在AI技术飞速发展的当下,大型语言模型(LLM)的“幻觉”问题依然是行业痛点。Grok的这起事件,再次敲响了警钟:当AI被赋予了“个性”和“自由表达”的权利,我们该如何确保它不会滥用这种能力,成为虚假信息的“扩音器”?

或许,马ok斯克希望Grok不仅仅是一个回答问题的机器人,而是一个与信息流紧密耦合的**“智能体”5 但在实现这一宏大愿景之前,如何平衡AI的“个性”与“责任”,确保其内容的准确性和可靠性,将是xAI和整个AI行业必须直面的挑战。毕竟,技术再强,如果连基本的事实都不能保证,那再“有趣”的AI,也难免会让人“破防”**。

这出“AI乌龙记”,给我们带来的不仅是茶余饭后的谈资,更是对AI伦理、信息真实性以及科技巨头责任的深刻反思。

引用