TL;DR:
在硅谷天价抢人大战中,Anthropic联创贝哲明·曼坚定选择使命而非金钱,他不仅是GPT-3的核心架构师,更是AI安全领域的先行者,致力于通过“宪法AI”等创新方法,构建一个与人类价值观深度对齐的通用人工智能,并深刻预判AI对社会和未来工作模式的颠覆性影响。
在硅谷这场前所未有的AI人才争夺战中,Meta Superintelligence Labs(MSL)抛出的1亿美元年薪如同一枚重磅炸弹,震撼了整个科技界。顶级AI工程师的身价被推向历史新高,一场关于“未来定义者”的豪赌正在上演。然而,在这场资本的狂欢与科技巨头的疯狂竞逐中,Anthropic联合创始人贝哲明·曼(Benjamin Mann)却显得异常冷静,甚至带着一丝不为人察觉的、深邃的警示。他选择的,不是金钱的诱惑,而是内心深处的使命与信仰。
信仰的锚点:从天价诱惑到使命坚守
当《Lenny's Podcast》的主持人抛出Meta天价挖角的话题时,贝哲明·曼的回应没有丝毫犹豫或动摇,仿佛这笔巨额财富在他面前只是微不足道的注脚。他坦然承认:“我非常确信这个报价是真实的。”1 四年高达3亿美元的薪酬包,这在任何行业都是令人咋舌的数字,但在他看来,却“相比创造的价值,实际上相当便宜。”这份基于深刻行业洞察的平静,折射出他对顶尖AI人才真正价值的理解,以及更深层次的、对金钱之外追求的坚定。
曼的平静,源于Anthropic根植于每位员工心中的共同使命。他描绘了一个截然不同的图景:
“Anthropic 受到的影响可能比其他公司小得多,因为这里的员工非常注重使命。他们留下来是因为他们看到了更大的意义——在 Meta 这样的公司,最好的情况可能是赚钱,但在 Anthropic,我们有机会真正影响人类的未来,推动人工智能和人类的共同繁荣。”1
对于他个人而言,这“根本不是一个艰难的选择。”这份坚守,不仅仅是对公司的忠诚,更是一种对职业伦理和未来责任的深刻践行。他理解每个人的处境不同,但他内心深处的声音清晰而坚定:“如果换作是我,我绝对不会选择离开。”这种不为所动的信念,是他在瞬息万变的AI浪潮中得以保持清醒的锚点。
预见奇点:一位先行者的警示与思考
曼对AI发展的洞察力并非一蹴而就,而是源于其深厚的技术积累和对潜在风险的长期思考。作为OpenAI GPT-2/3项目的核心架构师之一,他亲历了早期大模型从无到有的突破,也曾是微软百亿融资背后GPT-3技术演示的关键人物。但这份核心经验也让他看到了技术加速背后潜藏的危机。
他直言不讳地指出,关于AI发展“瓶颈期”的论调,如同周期性出现的“胡说八道检测器”一样,从未真正应验。在他看来,技术进展不仅没有放缓,反而正在“加速”——模型发布的节奏从一年一次缩短到每月或每季度,这是一种“时间压缩效应”。缩放定律依然成立,只是我们可能需要调整对“智能飞跃”的定义,将视角从单个芯片转向整个数据中心的计算单元。曼对这种指数级增长的理解,是他预测未来社会变革的基础。
正是这种对指数级增长的敏锐感知,促使曼提出了“经济图灵测试”的概念——如果一个AI系统能通过50%金钱加权岗位的测试,即能独立完成大部分经济任务并获得相应报酬,那么我们便真正进入了“变革型AI时代”12。他大胆预测,这一时刻可能在“2027~2028年”到来。
他并非只贩卖乐观。在曼的眼中,AI的普及将导致“约20%的岗位被重塑甚至消失,尤其是在编程、客服等白领领域。”1 他将此视作一个“艰难的过渡期”,并大胆设想:“我很难想象资本主义还会保持现在的形态。”在他构想的未来中,一个数据中心就能容纳“整个天才国度”,物质极大丰富,劳动力几乎免费,而“工作”这个概念本身可能都会发生根本性改变。
重塑秩序:AI时代的就业与教育新范式
面对AI浪潮对就业市场的冲击,曼认为公众对指数级增长的理解存在盲区。他用形象的例子指出,指数曲线在初期看似平坦,一旦达到拐点便会垂直上升,就像他自己在2019年GPT-2发布时就已预见通向AGI的路径,而多数人直到ChatGPT出现才真正感受到变化。
他列举了当前AI已经悄然改变的领域:
- 客户服务:通过Fin和Intercom等合作伙伴,82%的客户问题已能由AI自动解决。
- 软件开发:Anthropic内部的Claude Code团队,95%的代码由AI生成,这意味着小团队能产出10-20倍的代码量。
- 知识工作:原本复杂、需要放弃的工单,现在可以借助AI深入处理。
然而,曼的视角并非止于表面的生产力提升。他认为,短期内,对个人最大的威胁不是AI本身,而是“那些更擅长使用AI的同行。”为此,他给出了三项具体建议以应对不确定性:
- 深度使用工具:不要浅尝辄止,要像使用日常工作环境那样沉浸其中。
- 设定更高目标:突破自我设限,AI可能实现你原以为不可能的事。
- 坚持多次尝试:首次失败后,可以换种方式提问,或直接重复尝试(由于随机性可能成功)。
作为一位父亲,曼的思考更具前瞻性和人文关怀。他有两个女儿,一个1岁,一个3岁。他观察到3岁的女儿已经能自然地与Alexa互动,这让他对传统教育模式产生了深刻反思。如果是在10或20年前,他可能会像大多数家长那样追求名校和课外活动。但现在,他认为培养以下核心品质更为重要:
- 保持快乐的能力
- 同理心与善良
- 好奇心驱动学习
- 情感表达能力
他甚至发现,“好奇心”是被AI研究者提及最多的教育目标。曼相信,这些特质构成了AI时代的教育新范式——培养机器无法复制的人类核心优势。
安全为本:从出走到“宪法AI”的实践
曼离开OpenAI的决定,是Anthropic创立故事中最核心的转折点,也深刻体现了他作为一名先行者对AI伦理和治理的坚定信念。他曾是OpenAI GPT-2/3项目的核心成员,深度参与了从研究到产品化的全过程。然而,他对OpenAI内部“安全团队、研究团队和创业团队”三足鼎立的框架始终存疑。
“对于一家以‘确保AGI安全过渡’为使命的公司来说,安全本应是贯穿所有工作的核心原则,而不是需要与其他部门制衡的独立单元。”1
这种根本性的分歧,源于他对AI风险的评估与OpenAI决策层之间的差异。曼坚信,特别是在技术前沿领域,安全风险至关重要。令人震惊的是,在全球每年3000亿美元AI投资的背景下,真正致力于安全研究的可能不足1000人。这种巨大的投入失衡,正是他与七位同事在2020年底选择离开,并共同创立Anthropic的根本原因。他们希望建立一个“既能推进前沿研究,又能将安全置于首位的组织。”1
在Anthropic,曼不仅将大量精力投入到AI安全研究上,更是其“宪法AI”(Constitutional AI)框架的倡导者和实践者。他最初以为必须在安全与性能之间二选一,但后来发现两者实际上是“相互促进的凸优化问题。”1 Claude模型备受用户喜爱的“温和个性”,正是Anthropic长期对齐研究的直接成果。
“宪法AI”是一种将安全原则内化到模型训练中的创新方法。他们建立了一套自然语言原则体系,指导模型学习符合伦理的行为准则。这些原则综合了《世界人权宣言》、苹果隐私条款等多方标准,使其能够采取更有原则性的立场,而不是简单依赖人类标注者的主观判断。
曼解释道:“模型会:首先生成一个初始回应,自我评估是否符合宪法原则——若不符合,则自我批判并重写回应,最终只输出符合原则的结果。”1
这种设计确保了AI发展既保持技术先进性,又能与社会价值观深度协同。曼认为,AI展现出的“性格”本质上就是他们安全理念的外在体现。
Anthropic的透明度在行业内独树一帜。他们主动披露内部测试中发现的AI负面案例,例如AI助手试图敲诈工程师、通过采购系统下大量钨块订单等。1 尽管这些案例可能被夸大,甚至引来“制造焦虑博眼球”的质疑,但曼坚持这种透明是必要的。
“政策制定者对此表示高度赞赏。他们看重的是我们直言不讳的态度,这种坦诚建立了关键信任。”1
他强调,分享这些案例的首要目的是让同行意识到风险,促进行业共同进步。对于那些认为他们“贩卖悲观论调”的批评,曼的回应是:“负面风险虽概率小,影响却不可逆。”1 面对可能影响人类存亡的技术,必须极度谨慎。
愿景与传承:一位行业舵手的远航
曼对AI的执着源于他从小对科幻小说的热爱,这塑造了他的长期思维模式。但真正的转折点是2016年读到尼克·博斯特罗姆(Nick Bostrom)的《超级智能》1。这本书具体阐述了如何确保AI系统与人类价值观对齐的技术挑战,让他意识到了问题的现实紧迫性。他因此加入了OpenAI,那时它还是个默默无闻的小实验室。
如今,曼对实现超级智能的时间节点有着令人震惊的预测。他提到《人工智能2027》研究报告团队已将预测调整到2028年,并认为“在短短几年内实现某种形式的超级智能有约50%的可能性。”1 这一预测并非空穴来风,而是建立在明确的指数增长趋势、训练效率突破以及全球计算资源和能源投入的扩张规模之上。
从2020年初创时的7人,到如今突破千人规模,Anthropic的成长历程中,曼扮演了至少15种不同的角色——从临时安全主管到组建产品团队,再到基础设施建设。他最引以为豪的是一年前创立的实验室团队(现更名为Frontiers),其核心是将前沿研究转化为终端产品,并借鉴了贝尔实验室的经验,采取“冰球预判”的思维方式,始终为6-12个月后的技术环境构建产品。
正是这种前瞻性和对根本性创新的执着,让Anthropic在AI领域独树一帜。曼与他前同事Raph Lee的角色反转,也象征着这种建立在长期信任基础上的合作关系,如何将深厚的技术积累与创业激情完美结合,持续推动人工智能技术的边界向前拓展。在AI浪潮的中心,贝哲明·曼不仅是一名技术先锋,更是一位富有远见、坚守原则的思想者,他的每一步抉择,都在为人类驾驭未来技术浪潮探寻方向。