赛博“朝阳群众”已上线?OpenAI:我早看他不对劲了,但那个警我没敢报……

温故智新AIGC实验室

TL;DR:

现实版《少数派报告》扎心上演:OpenAI 爆料称,半年前就发现有“危险分子”在利用 ChatGPT 策划暴力活动,虽然封了号也动过报警的念头,但由于种种原因没能提前阻止悲剧。这波属于 AI 的“警报器”响了,但现实世界的“接力棒”掉地上了。

你能想象吗?当你还在纠结怎么让 ChatGPT 帮你写周报、润色辞职信时,有人已经在把它当成“暴力策划指南”了。

最近,OpenAI 曝出了一个让人脊背发凉的猛料:早在去年 6 月,他们的安全监测系统就精准捕捉到了一个名为 Jesse Van Rootselaar 的账号。这个账号在 ChatGPT 上的行为被标记为“促进暴力活动”。按理说,这就是典型的“高危预警”,OpenAI 当时甚至认真考虑过要不要打个跨国长途,向加拿大警方举报这位“种子选手”[^1]。

然而,结果大家都知道了。这个电话最终没打成,而数月后,Jesse 在加拿大 Tumbler Ridge 制造了该国历史上最严重的校园枪击案之一[^1]。

赛博保安的尴尬:我看到了,但我犹豫了

这事儿听起来特别像阿汤哥那部经典的《少数派报告》——在犯罪发生前就锁定嫌疑人。但现实远比电影骨感。OpenAI 拥有一套名为“滥用监测”(Abuse Detection)的黑科技,它就像个 24 小时巡逻的赛博保安,时刻盯着有没有人在教 AI 怎么造炸弹,或者制定袭击路线。

但是,AI 厂商在处理这种预警时,往往陷入一种“CPU 快烧了”的道德困境:

  • 标准模糊:如果用户只是写个暴力小说,或者在进行某种奇怪的行为艺术,直接报警是不是侵犯隐私?
  • 法律边界:作为一家硅谷公司,跨国举报的法律流程比代码还复杂。
  • 误报风险:万一 AI “幻觉”了,觉得对方要搞大事情,结果人家只是在玩《使命召唤》的战术模拟,这锅谁来背?

这种“犹豫”导致了 OpenAI 当时只采取了“封号”这一标准动作。在巨头眼中,封号是“尽职”,报警则是“越界”。但当封号无法阻挡现实中的火药味时,这种“程序正确”就显得格外苍白。

AI 不仅是“准杀手”的助手,还是“监控大师”的笔杆子

如果说校园枪击案是个极端的“爆点”,那么 OpenAI 披露的其他滥用行为,则展示了 AI 是如何被全方位“玩坏”的。

根据 OpenAI 最近的一份安全报告,AI 正在成为某些威权手段的“提效工具”。比如,有疑似背景的人员要求 ChatGPT 设计大规模监控建议书,甚至精细到要开发一个“高危人员流入预警模型”,通过分析交通订票信息和警方记录,专门盯着特定族群的行踪[^2]。

调侃式点评:以前搞监控得要一整个智囊团,现在只需要一个 ChatGPT 账号。AI:我以为我在帮人类进步,结果我在帮你们互相盯着?

更有甚者,AI 还被用来生成大量的社交媒体帖文,搞“跨平台认知干预”。从抹黑社会运动人物到生成钓鱼邮件,AI 的笔头子越来越顺溜,伪装成学术大咖或工商界人士时,那语气礼貌得让你根本不敢相信对面是个“赛博特工”[^2]。

行业“地震”:谁是真正的安全守门人?

这次事件再次把 OpenAI 推到了风口浪尖。当 AI 已经拥有了洞察人类“恶意”的能力时,它到底是该做一个“莫得感情”的工具,还是应该成为守护社会安全的“超级英雄”?

目前,加拿大和美国都在讨论更严厉的 AI 监管法案。但技术发展的速度永远快于立法的脚步。OpenAI 强调,他们正在不断优化“安全护栏”,比如提高对恶意代码生成和暴力倾向的识别精度[^3]。但在隐私保护和公共安全这对“天敌”面前,即便强如 GPT-4o,也没法给出一个完美的答案。

未来预测:下一个“风口”是 AI 警察吗?

可以预见的是,未来 AI 厂商与执法部门的协作将不再是“可选项”,而是“必选项”。未来的 AI 助手可能会自带一个“报警直连”按钮。

当然,我们更不希望看到的是,未来的网络环境变成一个“全员监控”的动物园。当 AI 开始预判你的预判,我们每一个人在它面前可能都是透明的。

面对这个日益聪明的“赛博保安”,我们该感到安全,还是该感到害怕?或许正如那个老梗所说:AI 并不想毁灭人类,它只是不在乎人类。但如果它学会了“在乎”,那才是人类真正需要担心的时候。