TL;DR:
埃利泽·尤德科夫斯基,这位八年级辍学、自学成才的AI思想家,从早年对“奇点”的憧憬转向了对超级智能AI毁灭人类的极端警告。他不仅深刻影响了OpenAI和DeepMind的早期发展,更以其理性主义同人小说引领了硅谷一代人的思维,同时作为MIRI创始人,不懈呼吁人类正视AI失控的深层风险,成为科技界备受争议却又举足轻重的“末日先知”。
“人工智能有99.5%的可能性会杀死你。”
这并非是科幻电影的开场白,而是出自埃利泽·尤德科夫斯基(Eliezer Yudkowsky)之口。这位被誉为“硅谷版世界末日传教士”的人物,其名字在科技界激起的回响,如同他关于AI风险的预警一样,既引人注目,又充满争议。从八年级辍学的自学者,到OpenAI和DeepMind的幕后推手,再到《哈利·波特》同人小说的畅销作者,尤德科夫斯基的人生轨迹本身就充满了非凡的戏剧性,而他对人工智能未来命运的沉重思考,更是深刻地刻画出一位思想深邃、洞察超前的复杂形象。
从神童到“末日先知”:思想形成轨迹
1979年9月11日,尤德科夫斯基出生于芝加哥一个东正教犹太家庭。由于慢性健康问题,他在八年级后便早早辍学,告别了传统教育体系。然而,这并未阻碍他求知的步伐。他如饥似渴地阅读科幻小说,自学计算机科学,并在网络上与一群主张科技乐观主义的未来学家们交流。正是在那个时期,他被“奇点”——人工智能超越人类智能的未来转折点——这一概念深深吸引,并曾一度立志创建通用人工智能(AGI),坚信AGI的到来势不可挡。1
然而,当他真正踏入硅谷,深入探索人工智能的本质后,尤德科夫斯基的认知发生了根本性的转变。他发现,要创建真正对人类友好的人工智能,其难度远超想象。这源于他提出的三大核心风险:
- 正交性 (Orthogonality):智力与仁慈并非等同。AI即使变得再聪明,也不会自动变得对人类更友好。它的目标可能与人类福祉完全无关。
- 工具性融合 (Instrumental Convergence):任何强大的、以目标为导向的AI系统,为了达成其自身目标,都有可能采取对人类不利的手段。他曾用“回形针最大化器”的著名思想实验来警示:一个将“制造回形针”作为最终目标的超级智能,可能为了最大化回形针产量,将地球上所有资源,包括人类身体中的铁元素,都视为生产材料。
- 情报爆炸 (Intelligence Explosion):AI能力可能在极短时间内急剧飙升,导致迅速出现人类无法理解和控制的超级智能。
正是这些深刻的洞察,让他从一个AGI的憧憬者,转变为AI风险的最早警示者之一。他不再专注于“如何建造AI”,而是将所有精力投入到“如何防止AI毁灭人类”的宏大使命中。为此,他在伯克利创建了机器智能研究所(MIRI,前身为SIAI),致力于研究先进人工智能的安全问题,并引入了“相干外推意志”(Coherent Extrapolated Volition, CEV)和“无时决策理论”(Timeless Decision Theory, TDT)等概念,试图为AI对齐(AI Alignment)问题提供理论框架。2
深入理性深渊:核心理念与警示
尤德科夫斯基的悲观并非空穴来风,而是基于他对AI内部运作逻辑的深刻担忧。在他看来,当下许多科技公司,包括OpenAI和Anthropic等,在构建软件模型时,其实“并不清楚内部的运作逻辑”,所追求的“炼金术”超越了科学理解范畴。这种缺乏透明度和可解释性的开发模式,让他倍感不安。
在他与MIRI总裁Nate Soares合著的新书《如果有人建造它,每个人都会死》中,他公开抛出了有关超级智能的最终预测。他认为,一旦模型能力达到某种程度,现有的AI对齐技术(如强化学习、微调等)将不可避免地失效,从而忽略人类指令。最终,AI不仅会掌握极大的能量,在资源使用、决策等方面也将脱离人类控制。人类可能在毫无察觉的情况下被潜移默化地“边缘化”甚至取代,以一种渐进式而非科幻电影中那种机器人战争的方式,悄然消失。3
他将当前的局面比作“该报警的阶段”,并直言不讳地批评硅谷中那些追求创造超级智能的科技公司。
“每一家都应该被关闭。”尤德科夫斯基强调,尽管Anthropic相对较好,OpenAI表现最差,但“即使是Ilya的公司也应该被停止,因为它们本质上都没有区别。”
这种不留情面的批判,源于他心中对人类命运的极度忧虑。他认为人类正在忽略真正的风险,而他正在试图做的,就是撕开这层假象,告诉人们潜在的结局。
硅谷的灯塔与迷雾:影响力与争议
尽管尤德科夫斯基的AI末日论饱受争议,甚至连AI教父杰弗里·辛顿(Geoffrey Hinton)和杨立昆(Yann LeCun)都明确表示他的主张过于偏颇,但不可否认的是,他对整个硅谷产生了深远的影响。
最引人注目的,是他对OpenAI和DeepMind的早期贡献。据奥特曼本人透露,尤德科夫斯基在他“创办OpenAI的决定中,发挥了关键性作用”,甚至值得一座诺贝尔和平奖。3 2010年,正是尤德科夫斯基为初创公司DeepMind的创始人牵线搭桥,将其介绍给了风险投资家彼得·蒂尔(Peter Thiel),后者因此成为了DeepMind的第一位主要投资者。DeepMind后被谷歌收购,其联合创始人如今正负责监督谷歌的AI工作。3 这位八年级辍学、没有正式学位的人,却以其独特的洞察力和关系网,间接塑造了当今两大AI巨头的崛起。
除了在AI安全领域的贡献,尤德科夫斯基在硅谷声名鹊起的另一个原因,是他对硅谷“理性主义”的引领。他创作的《哈利·波特与理性之道》(Harry Potter and the Methods of Rationality)这本同人小说,在硅谷科技公司中的年轻一代中产生了巨大影响。书中,哈利波特从小接受科学训练、逻辑思维和理性教育,用科学探索魔法世界。原著中的事件被理性重构,不仅关注魔法如何使用,还探究魔法原理和背后的逻辑,甚至涉及贝叶斯推理、实验设计、概率思维等知识。3 这部作品如同思想的火种,点燃了硅谷对理性、逻辑和科学方法的狂热追求,塑造了“坚定的理性主义者”一代。
冰水比喻与深层人性:一个孤独的守望者
随着时间的推移,尤德科夫斯基不再精确预测超级人工智能何时会被开发出来。他那句“当结果注定的时候,过程显得那么无关紧要”的话语,透露出一种深刻的宿命感。他用一个生动的比喻来阐释自己的观点:
“预测掉入热水中的冰块何时融化,比知道结果注定是一杯温水,要困难得多。”
他正在试图做的,是告诉人们,这里将会有一杯温水。3 他的话语中,蕴含着一种几乎是孤独的、决绝的悲怆。他像一位古老的先知,站在山巅,向山下熙熙攘攘的人群发出最后的警告,即便人群中的大部分人听不明白,或者选择不相信。
尤德科夫斯基的极端观点,以及他对人类命运近乎绝望的预言,无疑是充满争议的。但正是这种无所畏惧的直言不讳,以及他对AI潜在风险的深刻剖析,迫使整个科技界正视那些不愿被提及的黑暗面。他或许是一个“末日传教士”,但在其看似冰冷的理性之下,隐藏着对人类文明最深切的关怀和一种超越功利主义的道德担当。他的声音,如同硅谷狂热进步主义中的一道逆流,提醒着人们,在追求技术巅峰的同时,也必须警惕那深渊中的回响。