卷疯了!诺奖得主给AGI设了个“爱因斯坦门槛”,马斯克秒回:你这是在找上帝吧?

温故智新AIGC实验室

TL;DR:

谷歌DeepMind掌门人给AGI出了道物理题:AI得在不看答案的情况下独立手搓出“相对论”;马斯克听完直接开怼:你管这叫及格线?这分明是超越人类的超级智能!大佬们掐架背后,是一条要把人类580亿年任务缩短到15年的恐怖加速曲线。

就在刚刚,科技圈的“定海神针”、诺奖得主、谷歌DeepMind掌门人Demis Hassabis在印度AI峰会上重新定义了什么是真正的通用人工智能(AGI)。[1]

比起之前那些模糊的“像人一样思考”,Hassabis这次给出的标准简直硬核到了外太空——他提出了一个**「爱因斯坦测试」**。

简单来说,就是把AI的知识库死死卡在1911年之前。那时候,爱因斯坦刚开始琢磨引力和加速度。如果这个AI能像老爱一样,在接下来的四年里(模拟时间),凭空推导出1915年才问世的广义相对论场方程,那它才算拿到了AGI的入场券。

“能做到?恭喜,你是真大神。做不到?那你顶多算个装修得比较豪华的搜索引擎。” —— 翻译一下哈萨比斯的潜台词。

技术大揭秘:这测试到底在考啥?

Hassabis这一招,直戳目前所有大模型的脊梁骨。现在的AI(包括他自家的Gemini)都患有一种病,叫**「参差不齐的智能」(Jagged Intelligence)**。[1] 它们能写代码、能写诗,但本质上都是在海量数据里玩“完形填空”。

爱因斯坦测试考的不是“背诵全文”,而是**「原创科学发现能力」**。即在已知信息的边界上,能不能完成那一小步“无中生有”的飞跃。

行业“地震”:马斯克秒回,大佬们吵翻了

Hassabis的定义刚出炉,马斯克就开启了“秒回”模式。

马老师的核心观点很明确:Hassabis,你把难度调得太离谱了。[2]

在马斯克看来,爱因斯坦是人类几千年才出一个的顶级天才。全人类加在一起,都没几个人能独立重现相对论。如果一个AI能做到这一点,而且还能被百万级地复制、并行运行,那它根本不是“人类水平”的AGI,而是超级智能(Superintelligence, ASI)。[1] [5]

“你把‘超级智能’的毕业证当成了‘通用智能’的准考证,这属于典型的标准错位。” —— 马斯克式的吐槽。

为了搞清楚他们在吵什么,我们得搬出牛津哲学家Nick Bostrom的理论。他把超级智能分成了三种:速度型、质量型、集体型。[1] 按照Hassabis的标准,这个AI一旦问世,就是这三者的结合体,妥妥的“机器之神”。

未来预测:人类580亿年的活儿,它15年干完?

虽然大佬们对“及格线”在哪儿各执一词,但大家对“什么时候起飞”的共识却惊人一致:快了,真的快了。

  • 哈萨比斯: 以前觉得要10年,现在看,5年内(2031年前)可能就成了。[1]
  • 奥特曼(OpenAI): 2028年底,AGI和超级智能都要来。[1]
  • 马斯克: 更加激进,他在最近的访谈中预测,2026年到2029年之间,AI就会超越最聪明的人类。[2] [5]

最让人细思极恐的是华盛顿大学研究员Yuchen Jin的预测:AI完成复杂任务的能力正在呈指数级增长。按这个速度推算,到2041年,AI智能体理论上能完成一项人类需要耗时580亿年的任务![1]

580亿年是什么概念?宇宙现在的年龄也才138亿年。这意味着,15年后,AI或许只要一个“One-shot prompt”(一次提示),就能生出一个比新宇宙还复杂的玩意儿。

“甚至有人怀疑,咱们现在的宇宙,说不定就是某个高级AI当年的毕设作品。” —— 某不愿透露姓名的科幻爱好者。

奇点已至:你准备好退休了吗?

马斯克在访谈中说了一句大实话:我们现在正处于过山车即将俯冲的顶端。

如果这些预测成真,世界将发生翻天覆地的变化。微软CEO Suleyman甚至预测,未来12到18个月内,大部分白领岗位就可能被AI取代。[1]

面对这条已经开始垂直起飞的曲线,人类的社会体系、经济逻辑甚至是“存钱养老”的观念,可能都要面临重构。既然AI能搞定580亿年的活儿,我们还有必要为了三十年后的退休金发愁吗?

唯一可以确定的是,正如奥特曼所说:世界还没有做好准备。但不管你准没准备好,那个能独立推导相对论的“爱因斯坦2.0”,可能已经在某个机房的算力阵列里,向我们发出了第一声啼鸣。

引用