TL;DR:
AI现在就像个没领驾照就上高速的赛车手,各家巨头表面喊着“安全第一”,背地里却忙着解散伦理团队。Meta监督委员会的大佬坐不住了:再不给这届AI套上“紧箍咒”,咱们可能真要见证低配版“智械危机”了。
现在的科技圈,每天都有新的大模型出来“卷”破天际,但你有没有发现,这辆名为AI的超级跑车,好像根本没装刹车?
最近,Meta监督委员会(Oversight Board)的成员Suzanne Nossel直接在《卫报》上发表了一篇“劝学”雄文,核心思想就一句话:求求了,给AI整点正经监管吧,别光指望这帮硅谷大佬“凭良心说话”了。 1
AI大厂的“嘴炮”与现实:一边喊救命,一边加速跑
现在的AI发展速度有多快?用Nossel的话说,那叫“头晕目眩”。以前的核能、互联网革命好歹还有政府在前面带路,现在的AI则是完全由一帮拿着几十亿美金的巨头在“闭门造车”。
最离谱的是,这些AI大佬们(比如OpenAI、Google、Anthropic)一边在听证会上声泪俱下地表示“AI可能会毁灭人类,救救孩子”,一边又在疯狂往模型里塞广告、搞军工合作。1
“这感觉就像是一个医生告诉你这药还没试过毒,但他已经迫不及待要卖给你了,甚至还要把它卖给特种部队。” —— 某不愿透露姓名的调侃
更有意思的是Anthropic,这家自诩为“最讲良心”的公司,居然说他们的模型是按照“想象一个体贴的高级员工会怎么做”来训练的。1 这种“脑补式”的安全逻辑,简直比“草台班子”还要草台。难怪去年有77%的美国人表示:这届AI,我不信。 1
技术大揭秘:为什么我们对“算法黑箱”束手无策?
专业术语里有个词叫“算法黑箱”(Algorithm Black Box),简单来说,就是连开发者自己都不知道这模型为什么会给出这个答案。2
现在的AI监管面临三大难题:
- 没有“药监局”:食品上市前要FDA检测,药品要临床试验,但AI模型哪怕可能教唆青少年自残或教人造生物武器,也能直接公开发布。1
- 事故不公开:核工业要是出了安全事故得全球通报,AI公司要是模型跑偏了、泄露隐私了,大多时候都选择“偷偷进村,打枪的不要”。
- 监管 patchwork:现在的法律就像打补丁,美国各州各搞一套,欧盟还在跟大厂博弈,而特朗普甚至想让之前的某些AI法律失效。1
即便是在国内,虽然我们有了《大模型合规白皮书》和各种算法备案机制,但要真正驯服这些深不可测的神经网络,依然任重道远。2
行业“地震”:有人拆台,有人在筑墙
当Suzanne Nossel在呼吁加强外部独立监督时,Meta自己却干了一件让所有人大跌眼镜的事:解散了负责任AI(Responsible AI)团队。 3 这种“自废武功”的操作,在Reddit等社交平台上引发了一阵群嘲。
虽然Meta签署了各种《布莱切利宣言》,承诺要以“安全可靠、以人为本”的方式开发AI,但现实往往是:KPI才是第一生产力,伦理只是装饰品。 2 4
不过,全球范围内的“紧箍咒”正在慢慢收紧:
- 欧盟《AI法案》:史上最严,直接给AI划了红线,有些“不可接受风险”的系统(比如社会评分)直接禁用。2
- 中国方案:强调“智能向善”,要求算法备案和安全评估,特别是针对那些具有“舆论属性”的模型。2
- 企业自律?:联想、阿里、腾讯等国内大厂开始搞“负责任AI委员会”,试图在技术内卷和伦理安全之间找平衡。5
未来预测:我们真的需要AI版的“世界警察”吗?
Nossel认为,单靠公司的自愿承诺是不靠谱的。我们需要的是独立的第三方审计,就像财务报表需要会计师事务所一样。如果这些掌握着人类未来的公司连“独立审查”都不能接受,那他们口中的“安全承诺”大概率只是为了阻挡监管而画的大饼。
毕竟,AI不应该只是硅谷或实验室里的昂贵玩具,它正实实在在地影响着每个人的隐私、工作甚至生命安全。
引用
-
I’m on the Meta Oversight Board. We need AI protections now | Suzanne Nossel · The Guardian · Suzanne Nossel (2026/3/2) · 检索日期2026/3/2 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
AI安全与合规:维护国家安全的新疆域 · 金杜律师事务所 · 张逸瑞, 景云峰 (2023/10/18) · 检索日期2026/3/2 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Meta disbanded its responsible AI team · Reddit · r/technology (2023/11/18) · 检索日期2026/3/2 ↩︎
-
AI安全治理机制设计 · 知乎专栏 · 佚名 (2024/5/21) · 检索日期2026/3/2 ↩︎
-
负责任AI:监管、治理与向善 · 埃森哲 · 胡定宇, 徐浩 (2024/10/1) · 检索日期2026/3/2 ↩︎