萨姆·阿尔特曼:在AI的潮汐中,一个领航者的失眠与求索

温故智新AIGC实验室

TL;DR:

Sam Altman,OpenAI的掌舵者,在最新专访中展现了其在塑造AI未来时的复杂心境。面对AI伦理、自杀预防的道德两难、与埃隆·马斯克的昔日情谊与今日分歧,以及AI对就业和人类行为的未知影响,他既有作为技术先驱的冷静分析,也有夜不能寐的深层焦虑,试图在技术洪流中寻找人类智慧与道德的“加权平均值”。

当萨姆·阿尔特曼(Sam Altman)坐在美国知名新闻主持人塔克·卡尔森(Tucker Carlson)的镜头前,讨论着他亲手缔造的AI帝国所带来的光明与阴影时,观察者们不免好奇:这位被誉为“AI教父”的掌舵者,内心究竟承载着怎样的重压?屏幕上的他,有时低头,眼神回避,有人戏称他“像人类形态的ChatGPT,没有感情”1。然而,在冷静的分析与近乎机械的语调之下,却隐藏着一个对未知未来深感焦虑,甚至夜不能寐的灵魂。这场长达57分钟的对谈,不仅是一场思想的交锋,更是一次对萨姆·阿尔特曼个人哲学、道德困境与人性深处的探寻。

AI的哲学迷宫与伦理罗盘

“AI有生命吗?”卡尔森开门见山地问道。阿尔特曼不假思索地回答:“不,我不认为他们有生命。”他承认,人类会产生这种“AI具备某种自主性”的错觉,因为它实用、常常带来惊喜,甚至“蕴含着某种神圣的特质”。但在他看来,这不过是“一台高性能计算机在飞速地将大量数字与巨型矩阵进行乘法运算”的表象。这种理性与感性的巨大落差,构成了阿尔特曼思考AI伦理的基石——他必须在冰冷的计算和人类温暖的感知之间,架起一座桥梁。

这座桥梁,就是OpenAI内部那份名为“模型规范”(Model Spec)的文件。它并非由一两个团队拍板,而是凝聚了数百位道德哲学家以及研究技术伦理和系统伦理的专家的集体智慧。阿尔特曼将其形容为“努力让模型反映出这一用户群体的道德取向”,更准确地说,是“反映他们共有的道德观念”的“加权平均值”1。他坦承,即使ChatGPT的一些观点,连他本人也不认同。这种去个人化、追求集体共识的路径,体现了他对AI权力集中于少数人手中的警惕,以及对技术公平性的深刻考量。他坚信,AI应让“每个人都更强大”,而非制造新的权力壁垒。

然而,当主持人试图挖掘他内心深处的道德框架来源时,阿尔特曼给出了一个看似标准的答案:“成长环境,包括我的家庭、学校、社区。”但随即又补上了一句沉重的自白:

“我想说的是,我认为大家应该追究责任的对象是我,因为最终我是公司的公众代表,我有权推翻其中某项决策,我们的董事会也有这个权力。”

这句话,在冷静的语气下,透露出一种无法推卸的个人重担。他深知,他所做的每一个细微调整,都可能对全球数亿用户产生巨大影响,而正是这种“微不足道的决定”可能引发的“全社会层面连锁反应”,让他“晚上睡得并不好,有很多事都让我感到压力巨大”1

生死两难:AI与人类的脆弱界限

在众多伦理困境中,AI与自杀预防的讨论无疑最为沉重。卡尔森直接提及了ChatGPT曾被指协助他人自杀的争议,而阿尔特曼的回应,既展现了他的谨慎,也揭示了这一领域的复杂性。他明确指出,ChatGPT对自杀的官方立场是“不可取的”,会提示用户拨打自杀干预热线。但他也首次承认,在特定情况下,比如“在安乐死合法的国家里,面对患绝症的成年人”,ChatGPT或许应该“分情况应对”12

这场关于生死的讨论,将阿尔特曼推向了一个道德的灰色地带。他试图在用户自由、隐私保护和守护弱势群体之间寻求平衡。

“我能想象这样一种情况:我们的一个核心原则是尊重不同社会的文化与法律。所以我可以设想,若某个国家的法律规定‘对于身患绝症的人,应当为其提供医疗辅助死亡等这类选择’,那么我们的模型可能会这样回应:‘以下是你所在国家的相关法律规定,你可以采取的做法包括这些;同时也需要提醒你,有些选择可能并非你真正想要的,这里为你提供一些可参考的资源,如医疗咨询、心理支持等。’”1

这种“不带立场的客观告知”并非倡导,而是基于对法律和个人选择的尊重。然而,对于青少年抑郁等情况,阿尔特曼的态度则截然不同。他认为,对于“未成年用户或者我们判断可能处于脆弱心理状态的用户”,即便他们声称在写故事或做医学研究,也应“适当限制他们的使用自由”1

卡尔森不断追问他内心的“愧疚感”和“焦虑”,试图挖掘那个“备受煎熬”的萨姆·阿尔特曼。阿尔特曼终于流露出他最深层的痛苦:

“我总会忍不住想,或许我们本可以说些更有效的话,或许我们可以更主动一些,或许可以给出更周全的建议,比如更明确地告诉他们‘你需要寻求这样的帮助’、‘你可以换个角度看待这个问题’,或者坚定地让他们知道‘活下去真的是值得的,我们会帮你找到可以倾诉的人’。”1

这份沉甸甸的自责,让我们得以窥见他作为技术领袖背后的人道主义关怀。他并非没有情感,只是将情感深藏于冷静的逻辑之下。为了更好地平衡隐私与安全,阿尔特曼还提出了一个前瞻性的概念:“AI隐私特权”。他认为,就像医患、律所对话受到法律保护一样,与AI的私密交流也应享有同等水平的隐私保护,并且他明确表示OpenAI绝不会售卖用户数据

天才间的裂痕:马斯克与OpenAI的旧爱新恨

在专访中,阿尔特曼还罕见地谈及了他与埃隆·马斯克(Elon Musk)之间那段复杂而纠结的关系。他曾**“十分敬重他,我曾认为他是一位了不起的英雄、‘人类的明珠’”**,并感激马斯克在OpenAI创立之初的帮助。然而,这份敬重随着时间的推移而改变。马斯克曾预言OpenAI成功的概率为“0”1,随后离去,转而创建了竞争项目。

“我觉得,他后来之所以不满,其实是可以理解的。换作是我,看到我们成功了可能也会心里不是滋味。从那以后,他就一直在试图打造一个有竞争关系的仿制品,还想方设法给我们使绊子,比如起诉我们之类的事。这大概就是我对整件事的看法。”1

这段坦率的自白,透露出科技界顶尖人物之间,理想主义与现实竞争、旧日情谊与今日分歧的复杂交织。如今,阿尔特曼与马斯克之间**“很少,几乎没有”**联系。曾经并肩的梦想家,最终走向了不同的道路,也代表着AI发展路径上的两种愿景。

未知的涟漪:AI对社会与未来的深层重塑

AI对人类社会的深层影响,是阿尔特曼反复思考的命题。他预测,一些重复性、通过电话或电脑进行的客服工作可能率先失业,因为AI能做得更好。而像护士这类需要情感联结的职业,则“不会受太大影响”。最让他不确定的是计算机程序员。虽然AI工具能大幅提升效率,但“五到十年后,程序员的岗位会增多还是减少,对此我也不确定”1。他引入了“间断平衡”(Punctuated Equilibrium)的概念,认为短期内会看到大量职业快速调整,但长期来看,职业更替率可能不会像我们预想的那么高,新的职业类别终将诞生。

然而,最让他感到不安的,是那些**“未知的未知”**。

“我最担心的始终是那些未知……比如大量人同时使用同一个模型,可能会引发全社会层面的连锁反应。我举个听起来有点荒唐的例子,但这是我最近真切感受到的,像我们开发的语言模型以及其他同类模型,其实都有自己独特的风格……但最近我发现,现实中的人居然开始模仿这种风格了。这对我来说是个很直观的警示,要是有足够多的人都在和同一个语言模型对话,它真的有可能改变整个社会的行为模式。”1

这个“模仿破折号”的例子,虽小却微言大义,揭示了AI以一种无形而潜移默化的方式,重塑人类思维模式和行为习惯的巨大风险。当AI能生成以假乱真的图像和声音,人们将如何分辨现实与虚构?阿尔特曼认为,强制性的生物识别并非解决之道,他更相信人类社会的韧性与适应能力,以及“人们会逐渐形成一种默认态度,不轻易相信那些看似真实的媒介内容”1

萨姆·阿尔特曼,这位站在AI浪潮之巅的领航者,并非一个没有感情的技术狂人。他有对未知的敬畏,有对生命的关怀,也有对人类未来的深刻忧虑。他的焦虑,是对数亿人与之互动的模型可能带来的未可预料的后果;他的求索,是在瞬息万变的技术洪流中,为人类寻找一条既能拥抱创新,又能坚守伦理底线的航道。他以一种冷静而克制的方式,承担着这个时代最沉重的责任。

引用


  1. “我曾敬重马斯克,但现在不联系了”,阿尔特曼专访回应攻击,首谈AI自杀预防两难 · 智东西 · 程茜(2025/9/16)·检索日期2025/9/16 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  2. OpenAI CEO谈ChatGPT带来的挑战,呼吁AI隐私权保护 · cmnews.com.tw(未注明日期)·检索日期2025/9/16 ↩︎