TL;DR:
美国前财政部长劳伦斯·萨默斯因深陷爱泼斯坦性丑闻被迫辞去OpenAI董事职务,这不仅使OpenAI失去了关键的“成人监管”力量和华盛顿沟通桥梁,更深刻揭示了在AGI时代,将未来托付给少数精英治理的内在脆弱性与道德风险,迫使我们重新审视AI伦理与企业增长之间的紧张关系。
在旧金山的雾气尚未散去之际,一则关于权力、道德与未来科技治理的深层震荡已然在数字世界引爆。劳伦斯·H·萨默斯(Lawrence H. Summers),这位曾被硅谷视为OpenAI“成人监管者”的经济学泰斗和前哈佛大学校长,在20000页国会文件曝光后,因其与臭名昭著的性犯罪者杰弗里·爱泼斯坦(Jeffrey Epstein)的密切联系而轰然倒塌,被迫辞去OpenAI董事职务,并暂停在哈佛大学的全部职务。这场看似个人私德的丑闻,实则如一道闪电,撕裂了精英治理的假面,并在OpenAI——这家致力于创造“造福全人类”的通用人工智能(AGI)的公司——刚刚完成商业化转型的关键时刻,留下了巨大的权力真空和深刻的伦理拷问。
精英治理的幻灭:萨默斯丑闻及其伦理镜像
萨默斯的坠落,不仅是个人声誉的破产,更是对一种特定治理模式的沉重批判。在硅谷的技术乌托邦叙事中,萨默斯这类人物通常被赋予“理性长老”的角色,其显赫的履历和在华盛顿、华尔街的深厚人脉,被视为稳定狂飙突进的技术洪流、将其与主流社会价值观对齐的必要力量。然而,国会释出的邮件却揭示了一个截然不同的萨默斯:他曾向爱泼斯坦寻求“浪漫建议”,交流如何追求女性,并发表与他当年从哈佛校长职位辞职原因如出一辙的性别歧视言论1。爱泼斯坦自称的“僚机”(Wing Man)一词,更是将萨默斯与一个将女性物化、甚至作为资源交换工具的阴暗世界紧密相连。
这种认知撕裂对OpenAI的打击尤为致命。这家公司正高举“安全性”大旗,致力于引导未来的ASI(Artificial Superintelligence)对齐人类最高尚的伦理价值观。然而,其最高决策层的核心成员,却在私下里展现了人类伦理最阴暗、最原始的一面。
“它迫使我们重新审视:当我们在教导机器如何对齐人类价值观时,我们在董事会席位上对齐的,究竟是哪一种人类的价值观?”
萨默斯的行为与OpenAI的宏大伦理叙事形成了尖锐的反差,使得其所谓的“安全性”承诺显得苍白无力。这不仅仅是一个人的道德缺陷,更是整个精英治理范式在面对新兴技术挑战时的深层结构性问题:我们能否将人类的未来,特别是那些可能超越人类智能本身的技术,托付给一群自身道德底线模糊、权力寻租成性的“守门人”?
权力重构与商业加速器:萨默斯在OpenAI的战略角色
要理解萨默斯离职的冲击波,必须回溯他进入OpenAI董事会的背景。2023年11月的“政变”事件后,奥特曼(Sam Altman)的回归伴随着董事会的彻底重组。萨默斯的引入,正是为了给这家初创公司注入华盛顿和华尔街认可的“成熟监管”,以平衡此前董事会中“有效利他主义”(Effective Altruism)派系对AI安全可能超越商业增长的忧虑2。他成为了公司商业化转型的总设计师之一。
萨默斯上任后迅速稳定了董事会,并推动了一种以增长、稳定和商业化为核心的秩序。他最显著的“战役”之一,是联手董事会主席布雷特·泰勒(Bret Taylor)在《经济学人》上,旗帜鲜明地反驳了前董事海伦·托纳(Helen Toner)和塔莎·麦考利(Tasha McCauley)关于奥特曼操纵行为和公司安全文化缺失的指控3。他利用自身巨大的声望为奥特曼背书,并援引威灵顿豪(WilmerHale)律师事务所的调查报告,将所有批评声音边缘化, effectively将其定性为“前任者的酸葡萄心理”。
这种策略极其成功。它向外界传递了一个信号:OpenAI已经翻篇,现在的OpenAI是安全的、稳定的,并且是由像萨默斯这样“懂规矩”的人在掌舵。正是这种信任背书,为OpenAI后续的疯狂扩张铺平了道路。在他任期的最后几个月里,OpenAI完成了一次令人瞠目结舌的重组,从一个非营利组织控制的复杂实体,转型为更标准的公益公司(Public Benefit Corporation, PBC),直接解开了资本的枷锁。当软银、微软和Thrive Capital在2025年4月领投那轮历史性的融资时,他们投资的不仅仅是ChatGPT的代码,更是萨默斯所代表的治理确定性。他公开阐述的“AI经济学”愿景——“在未来50年内创造的GDP可能是人类历史上迄今为止所有GDP总和的三倍”——更像是为这场千亿美元资本盛宴撰写的招股说明书。
华盛顿与硅谷的权力真空:监管的悖论与潜在风险
萨默斯的离开,无疑在OpenAI留下了一个巨大的权力真空。他不仅是公司商业化和扩张的主要推手,更是在华盛顿能够跨越党派对话、用宏观经济国家利益叙事来抵御反垄断监管的独特“防波堤”。他能用其在财政部和哈佛大学积累的权威,向参议员们解释为何拆分OpenAI可能带来的危险。现在,这道防波堤轰然崩塌。
留下的董事会成员,如主席布雷特·泰勒、Quora创始人亚当·安捷罗以及退役陆军上将保罗·中曾根,虽然各自在技术或国安领域有所专长,但无人具备萨默斯那种在华尔街与华盛顿之间游刃有余的“深层政府”气质。这种领导力的缺失,使得OpenAI在未来面对可能日益收紧的AI监管时,将面临前所未有的挑战。
更令人担忧的是,萨默斯的离职暴露了OpenAI治理结构中一个致命的悖论:这家公司声称要建立超越人类智能的AI,却连自己董事会成员的背景调查都未能用足够的“人类智慧”来完成。萨默斯与爱泼斯坦的关系并非秘密,早在2019年爱泼斯坦被捕时已有报道,哈佛大学2020年的报告也明确指出过。然而,在2023年重组董事会时,OpenAI仍选择了萨默斯。这或许能部分说明,在硅谷的权力逻辑中,人脉的价值有时远高于潜在的道德风险。他们赌萨默斯的污点会被他的光环所掩盖,并在这场豪赌中赢得了两年,换来了千亿美元的估值。但如今,庄家收走了筹码。
萨默斯在任期间,不仅清理了内部的“安全主义者”,还通过引入威灵顿豪报告为奥特曼打造了一副“免死金牌”4。他建立了一套机制,使得只要商业增长和宏观叙事足够宏大,具体的伦理担忧就可以被技术性地化解。如今,这套机制的设计者因为伦理问题倒台了,但这套机制本身却依然在运转。新的千亿美元估值意味着资本的压力比以往任何时候都要大。没有了萨默斯这种级别的“压舱石”,面对来自软银等激进投资者的压力,OpenAI现有的董事会是否有足够的政治资本去踩下刹车?或者,他们会因为失去了这位“保护伞”,而不得不更加激进地迎合市场,以维持股价和地位?这是一个需要密切关注的潜在风险点。
超越“神话”:AI时代的人类正直与治理新范式
萨默斯事件像一面破碎的镜子,折射出这个时代最令人不安的现实。人们曾经以为,要控制强大的AI,我们需要最聪明的大脑、最显赫的履历和最丰富的经验。于是人们请来了前财政部长、前大学校长。人们以为这些“成年人”能管住那些写代码的年轻人。但现实给了人们一记响亮的耳光。这些所谓的“成年人”,在私下里可能比那些年轻人更加迷失,他们在权力的游戏中沉迷太久,以至于忘记了最基本的判断力。
这不仅仅是关于OpenAI,更是关于整个AI产业的治理模式。它敲响了警钟:依靠少数几个“大人物”的良知来守护人类未来的想法,是多么的幼稚和危险。在算力可以模拟一切的时代,我们唯一无法模拟和训练的,依然是那个古老而稀缺的变量——生而为人的正直。
未来AI的治理,亟需从依赖个别精英的“守门人”模式,转向更加多元化、透明化和制度化的新范式。这包括:
- 强化独立的伦理审查与监督机制:确保AI的开发与部署从一开始就内置道德约束,而非事后弥补。
- 拓宽治理主体范围:引入更多元化的声音,包括来自非营利组织、学术界、公民社会乃至普通公众的代表,打破技术精英的同温层效应。
- 建立透明的决策流程:公开AI模型的风险评估、对齐策略和安全审计报告,让公众对AI的发展有更深的理解和参与。
- 健全的内部举报与问责制度:鼓励内部员工揭露潜在的道德和安全风险,并确保他们免受报复。
OpenAI的服务器依然在轰鸣,GPT-6正在某个数据中心里孕育。算法不在乎萨默斯是否辞职,也不在乎爱泼斯坦是谁,它只在乎数据。而现在,这些数据中又多了一条关于人类虚伪与脆弱的鲜活样本。萨默斯的离去,标志着一个旧时代治理神话的破产。这或许是AI时代给我们的第一个深刻教训:真正的“成人监管”并非来自显赫的履历或权力网络,而是源于集体对正直、透明和负责任的坚守。
引用
-
在爱泼斯坦丑闻曝光后,拉里·萨默斯辞去了OpenAI董事会职务。 · Unione Sarda · (2025/11/19)· 检索日期2025/11/20 ↩︎
-
OpenAI与爱泼斯坦的联系断了 · 36氪 · 编辑:艾伦 (2025/11/20)· 检索日期2025/11/20 ↩︎
-
AI firms mustn’t govern themselves, say ex-members of OpenAI’s board · The Economist · Helen Toner and Tasha McCauley (2024/05/26)· 检索日期2025/11/20 ↩︎
-
OpenAI board members respond to a warning by former members · The Economist · Bret Taylor and Larry Summers (2024/05/30)· 检索日期2025/11/20 ↩︎