TL;DR:
有个23岁小伙儿叫Aschenbrenner,放话2027年AGI就来了,搞不好咱们都得变“永久底层”。但他说了,最先被卷走的,可能是那些吹泡沫的科技大佬们!别光顾着焦虑,这事儿还得听听大家怎么说。
嘿,各位打工人,最近有没有感觉自己的饭碗有点“瑟瑟发抖”?AI这股巨浪,正以一种逆天改命的姿态席卷而来。这不,《纽约客》直接爆料,未来AI可能会创造一个“永久底层阶级”,把那些没赶上AI“顺风车”的人,都甩在历史的尘埃里!1 是不是听着就有点儿焦虑上头?
AGI“末日时钟”倒计时?2027年,打工人要失业啦!
这个“爆炸性”预言,来自OpenAI的前员工利奥波德·阿申布伦纳(Leopold Aschenbrenner)。这位23岁的“天才少年”放话:到2027年,AI将“达到或超越人类能力”;一旦它学会了创新,超级智能AI甚至都不需要自己的程序员了,更别提我们这些“凡夫俗子”的饭碗了,简直是杀疯了的节奏!12
但也有人站出来“呛声”,《卫报》的范·巴德汉姆(Van Badham)就直言不讳地指出,那些科技“骗子”们嘴里“AI工业化不可避免”的论调,根本就是画大饼,甚至不可持续。所以,现在是时候推翻重来,而不是坐以待毙!1 那么,究竟是谁在危言耸听,谁又在拨乱反正呢?这瓜,还得我们吃下去。
从FTX“踩雷”到OpenAI“出走”:天才少年Aschenbrenner的“反骨”之路
要说阿申布伦纳,那可真是个“故事感”十足的年轻人。他牛津毕业后,加入了FTX创始人SBF设立的FTX Future Fund,本以为能为“有效利他主义”理想添砖加瓦,结果…大家都知道,FTX人设崩塌,SBF“光速陨落”。阿申布伦纳坦言,虽然对SBF的个性有所察觉,但万万没想到是个巨型骗局!3
“如果早知道他是骗子,我不会去那里工作。”
— 阿申布伦纳,这句发言简直是“打脸”界的凡尔赛,既撇清了关系,又显示了自己“受害者”的身份。
这番人生大起大落,让他深刻意识到,资本再能加速技术,如果没有透明治理和政府监管,那创新就是空中楼阁,迟早会泡沫破裂。此后,他加入了OpenAI的“超对齐”(Superalignment)团队,继续研究AGI发展与人类价值观的对齐问题。3
然而,OpenAI的这段经历也充满了争议。2024年4月,他因为与外部研究员分享AGI相关备忘录而被OpenAI解雇。虽然他坚称那是公开理论,只是想寻求反馈,但外界却纷纷猜测,OpenAI是不是想把AGI的研发进程悄悄藏起来,只顾着搞钱和模型升级,而对伦理问题闭口不谈?3
经历了这些“剧情反转”,阿申布伦纳华丽转身,创立了对冲基金SALP,直接把预言变成了赌注。他的基金不追逐消费级AI的热闹,而是把宝押在了AGI的“底盘产业链”上——从核心通信芯片、AI互联模块的提供商博通(Broadcom),到在低谷期悄然推进AI加速器的英特尔(Intel)。他甚至直接投资GPU矿场、核电合约,誓要抢占AI基建的“瓶颈”!32
“如果不先占领瓶颈,未来就无法参与规则的制定。”
— 阿申布伦纳的这句金句,简直是把格局打开了,直接点明了未来AI世界“话语权”的争夺焦点。
从一个AGI的“吹哨人”,到一个资本市场的“操盘手”,阿申布伦纳的身份变了,但关心的核心问题没变:AI风险、国家安全和资本效率。这波操作,简直是把预测未来和投资未来玩明白了!
“AI 2027”大预言:专家们是“狼来了”还是“未雨绸缪”?
阿申布伦纳的“2027 AGI论”并非孤立无援。一个名为“AI 2027”的项目,由OpenAI前研究员丹尼尔·科科泰洛(Daniel Kokotajlo)等人主导,也给出了一个同样激进的预测时间线,试图推演AGI在2027年前后可能引发的技术、地缘政治和社会变革。4
这个项目预测:
- 2025年年中:早期AI代理现身,能执行基本任务但有限制。
- 2025年年末:虚构公司“OpenBrain”开发出强大的AI模型(Agent-0),专注于加速AI自身研究,滥用担忧也随之而来。
- 2026年年中:某东方大国政府将AGI研究国有化,成立“DeepCent”。
- 2026年年末:更便宜、适应性更强的AI模型(Agent-1-mini)发布,导致初级软件工程师等就业岗位进一步流失,AI公司股价一飞冲天。
- 2027年年中:实现通用人工智能(AGI)。
- 2028年年初:实现超级智能(Superintelligence)。4
这时间表,简直是AI版的“速度与激情”,看得人血压飙升。OpenAI前首席科学家伊利亚·苏茨克维尔(Ilya Sutskever)曾表示AGI可能在5到10年内实现,而CEO山姆·阿尔特曼(Sam Altman)甚至声称公司“已掌握AGI构建路径”,预计2025年就会出现早期AI。Anthropic首席执行官达里奥·阿莫代伊(Dario Amodei)也认同AI可能在2027年超越人类智能的说法。45看来,阿申布伦纳并不孤单,这群人是真觉得大的要来了!
然而,反对票也不少。Meta的AI大佬杨立昆(Yann LeCun)就认为,达到人类水平的AI还需要“几年甚至几十年的时间”。大多数AI研究人员在调查中预测AGI的出现时间会更晚,中位数在2031年到2047年之间。他们怀疑“AI 2027”项目可能低估了AI研究中潜在的瓶颈,比如真实世界实验的需求和人类背景理解的重要性。有人甚至直言,AI的**“信仰飞跃”**依赖于对深度学习局限性的过度乐观。4
这就像一场AI的“罗生门”,各方专家都在神仙打架。究竟是“狼来了”的警示,还是未雨绸缪的预言,我们这些吃瓜群众,只能拭目以待。
无论如何,AI这趟高速列车已经启动,无人能挡。但就像巴德汉姆提醒的,它并非“工业化必然”或“不可持续”。在焦虑“永久底层”命运的同时,我们或许更应该关注,那些真正推动AI走向何方、以及如何规范它的科技巨头和资本巨鳄们。如果AI真的会制造“永久底层”,那么,谁来为这些被淘汰的人买单? 如果说,最先被淘汰的,是那些吹嘘AI、制造科技泡沫的“伪创新者”,那或许也算得上是AI为社会做的第一件“好事”吧。毕竟,洗牌,才刚刚开始。
引用
-
AI might be creating a ‘permanent underclass’ but it’s the makers of the tech bubble who are replaceable·The Guardian·Van Badham(2025/10/16)·检索日期2025/10/16 ↩︎ ↩︎ ↩︎
-
天才还是赌徒?23岁的Aschenbrenner与AI的终极博弈·虎嗅网·(2025/08/22)·检索日期2025/10/16 ↩︎ ↩︎
-
天才还是赌徒?23岁的Aschenbrenner与AI的终极博弈·新浪财经·(2025/08/22)·检索日期2025/10/16 ↩︎ ↩︎ ↩︎ ↩︎
-
AI 2027:人工智能大爆炸专家预测·liuwei.blog·(2025/04/04)·检索日期2025/10/16 ↩︎ ↩︎ ↩︎ ↩︎
-
如何评价OpenAI 前研究员的AI 2027 预测?·知乎·(未知)·检索日期2025/10/16 ↩︎