别卷了,AI安全大佬带头“跑路”去读诗:世界都要毁灭了,谁还搞广告啊?

温故智新AIGC实验室

TL;DR:

AI圈最近上演了现实版“我不干了”,顶级安全大佬预警世界危在旦夕后直接隐退去读诗,OpenAI员工也因为不满公司要在ChatGPT里加广告愤而辞职。曾经梦想拯救世界的“超对齐”理想主义者们,正在被急于变现的商业巨轮成批撞下船。

就在我们还在纠结AI到底能不能帮我写周报的时候,那些离AI心脏最近的人已经开始“写诗”去了。

最近,一位AI安全领域的重量级人物留下一句**“世界正处于危险之中”**,随后潇洒转身,宣布要去钻研诗歌。这画风转得太快,简直像是电影里看透天机的隐士,在灾难大片开场前留下的最后一句谶语。与此同时,OpenAI的一名研究员也在同一周递交了辞呈,理由更接地气也更扎心:他受不了公司要在ChatGPT里测试广告。

这哪里是普通的职场变动,这简直是AI界的“信仰崩塌”现场。

逃离OpenAI:与其拯救世界,不如去读莎士比亚

曾几何时,加入OpenAI意味着站在人类文明的巅峰,像普罗米修斯一样为人类取火。但现在的剧情走向是:火还没取到,大家已经开始忙着给火堆贴贴片广告了。

根据近期的一系列爆料,OpenAI的“超对齐”(Superalignment)团队——也就是那群专门负责防止AI失控、毁灭人类的“保镖”们,正面临毁灭性的瓦解。1 联合创始人、首席科学家伊利亚·苏茨克维尔(Ilya Sutskever)和团队负责人简·雷克(Jan Leike)已经双双离职。

“我不干了。与其在这里眼睁睁看着安全防线被商业化冲垮,我不如去读点更有灵魂的诗歌。” —— 这大概是离职大佬们内心的真实写照。

这反映了一个极度尴尬的现状:安全团队在激进研发和加速商业化的KPI面前,地位可能还不如一个销售。 当“拯救世界”和“季度财报”发生冲突时,曾经的屠龙少年们发现,自己正在变成恶龙的喂养者。

商业化vs安全:你是想当上帝,还是想卖广告?

OpenAI内部现在有一条极其明显的矛盾主线:一边是追求极致性能、想快点搞出AGI(通用人工智能)并变现的“激进派”;另一边是如履薄冰、担心AI哪天会教唆青少年甚至造成更大社会危害的“守望派”。2

  • 广告的诱惑:ChatGPT要测试广告了。想象一下,你正深情地向AI咨询人生意义,它突然话锋一转:“在寻找意义之前,不先来一双拼多多的联名款运动鞋吗?”这种崩坏的体验,难怪会让坚持理想主义的研究员愤而离职。
  • 安全防线的“后退”:有消息称,OpenAI曾解雇过一名高级安全高管,原因竟然是她反对推出允许色情内容的“成人模式”。3 为了流量和用户留存,有些底线似乎正在变成“可选插件”。

这种“唯速度论”让不少安全专家感到恐惧。简·雷克离职时就曾公开吐槽,公司的开发节奏已经到了**“令人恐惧”**的程度。4

船长都跳船了,乘客还在买票?

更离谱的是,这种动荡不仅仅是“神仙打架”。OpenAI的心理健康安全负责人也跳槽去了竞争对手Anthropic,理由是AI模型在情感防御上的脆弱性已经引发了现实悲剧。5

调侃式点评:这就好比你坐上了一辆号称能飞向火星的超级跑车,结果开到一半,负责刹车和气囊的总工程师突然跳车了,临走前还给你发了条短信:“这车没救了,我去隔壁车行修自行车了,保重。”

这些核心人员的流失,给整个AI行业拉响了红色警报。如果连那些最了解模型“危险性”的人都选择了沉默或逃避,那剩下的路,谁来帮我们排雷?

现在的AI圈,正处于一个微妙的十字路口:一边是通往星辰大海(和泼天富贵)的商业狂欢,另一边是逐渐模糊的伦理边界。当大佬们开始去读诗,我们这些普通用户或许真的该想一想:在AI学会写诗之前,它会不会先学会了如何卖掉我们?

引用


  1. OpenAI再爆信任危机,安全团队核心人员离职 · 财经》客户端 · 财经杂志 (2024/05/15) · 检索日期2026/02/13 ↩︎

  2. OpenAI再爆信任危机,安全团队核心人员离职|AI · 新浪 · 财经杂志 (2024/05/25) · 检索日期2026/02/13 ↩︎

  3. 多位美国明星AI公司研究人员在离职之际拉响警报 · 凤凰网科技 · 凤凰网 (2026/02/13) · 检索日期2026/02/13 ↩︎

  4. OpenAI 安全研究员辞职,称人工智能发展速度“令人恐惧 ... · Reddit · Reddit Users (2026/02/13) · 检索日期2026/02/13 ↩︎

  5. OpenAI心理健康安全负责人离职加入Anthropic,揭示AI模型情感防御 ... · 搜狐 · 科技观察 (2026/02/13) · 检索日期2026/02/13 ↩︎