具身智能的涌现:肖仰华论AI革命的边界与人类未来

温故智新AIGC实验室

人工智能浪潮正深刻重塑社会,其发展路径在生成式AI与具身智能两条主线间交织。复旦大学肖仰华教授深入剖析了具身智能迈向“涌现”的挑战,强调数据质量、身心协同的重要性,并警示在AI加速发展背景下,人类心智退化及伦理治理的迫切性。

近年来,人工智能技术的演进速度令人惊叹,以ChatGPT为代表的生成式AI(AIGC)浪潮,正以前所未有的态势推动着社会向智能时代迈进。然而,在这股热潮之外,另一条同样具有革命性潜力的技术脉络——具身智能(Embodied AI)——也日益受到关注。它旨在赋予机器感知和行动的能力,使其能与物理世界进行深度交互。复旦大学计算与智能创新学院教授肖仰华,在一次深刻的对话中,为我们勾勒了这两条技术路线的共性与差异,并深入探讨了具身智能离真正“涌现”还有多远,以及AI发展对人类社会、伦理和价值体系的深远影响。1

智能涌现的路径:认知与具身之辩

肖仰华教授指出,当前AI发展呈现出两条清晰的脉络:一是以AIGC为代表,目标是让机器具备人类大脑的认知能力,学会像人类一样思考;二是以具身智能为特征,旨在让机器习得人类身体的感知和行动能力,模仿人类与世界的交互。他强调,这二者都是机器智能通向通用人工智能(AGI)的必经之路。

对于AIGC带来的变革,肖教授从三个基本方面进行了界定:首先,技术是否具有基础性,如同蒸汽和电力般无处不在;其次,对生产效率的提升作用,AIGC已将脑力工作的效率提升了数百甚至数千倍,例如合同审校和文本生成;最后,对社会上层建筑的深远影响,这种有“大脑”的AI将渗透到社会每一个角落,甚至可能导致人类思维的懒惰。基于这三点,肖教授坚信AIGC无疑是一场技术革命。

然而,对于具身智能,肖教授的态度更为审慎。他认为,如果具身智能仅是赋予机器身体和行动能力,其对生产力的提升作用可能只是“常量性”的,甚至不如人口增长带来的效应。他以“80亿机器人的生产力可能仅相当于人口翻倍”为例,指出具身智能带来的生产力解放与认知智能不可同日而语。更重要的是,安全和伦理考量将成为限制人形机器人应用场景与规模的关键因素。一个能在家庭中服务的机器人可能面临跌倒误伤的风险,而其提供的陪伴,也无法替代亲情。因此,肖教授倾向于认为,当前的具身智能发展,更多是认知智能突破后的技术延伸,其根本性和革命性不如机器实现人类水平的认知能力。在他看来,“唯有认知能力的加持,具身能力才具革命意义,才具产业价值,才能形成真正的新质生产力”。

肖教授进一步提出,认知智能与具身智能的下一个重要里程碑,将是身心协同。他援引哲学思考,指出身体对大脑有着不可或缺的塑造作用,如“身体舒畅,心情愉悦”;反之,大脑也控制身体与环境交互。然而,当前机器在身心协调方面仍存在本质差距,即便大脑和身体能力各自强大,组合在一起时也可能表现出“傻”的行为。

数据、范式与泛化:通往具身智能的关键挑战

生成式AI的飞速发展,一度被“缩放定律”(scaling law)所主导,即海量数据和大规模算力能够激发AI的强大能力。然而,肖仰华教授强调,随着DeepSeek R1和OpenAI O1等“强思维大模型”的崛起,大模型的发展正进入“后训练范式”,即通过强化学习等手段,让AI自主进行方案枚举与评价,激发其理性思维能力。这意味着,数据的规模让位于数据的质量,算力的规模让位于算法的设计。如果说预训练是发展大模型的知性能力(知识渊博),那么后训练则是在发展其理性能力(知识应用的智慧和思考深度)。这种范式同样适用于具身智能。

在模型架构与数据工程的关系上,肖教授秉持业界基本观点:模型算法或架构决定模型效果的下限,而数据决定模型的上限。 他指出,在大模型研发中,70%到80%的人力成本投入在数据上,而非模型或算法。当前,互联网上公开的高质量数据已面临“数据墙”问题,导致数据日益成为人工智能产业发展的根本瓶颈。他呼吁各行业甲方投入精力整理和清洗好自身数据,这是发展行业AI的关键。同时,数据短缺可部分通过模型优化和“经验知识植入”来缓解,即“数据不够知识来凑”,但根本之道仍在于高质量数据集的建设。

对于具身智能而言,数据问题尤为突出。肖教授指出,目前具身模型的训练数据量远不足以支撑其泛化能力的涌现。当前具身数据集的token量仅在百亿级别,而语言模型已达数万亿级别,相差两到三个数量级;模型参数规模也相差两到三个数量级。这表明具身智能仍处于语言大模型的“BERT时代”,尚未迎来其“ChatGPT时刻”。具身数据采集困难重重,个体体验和环境的复杂性导致数据表达异常复杂。肖教授认为,促进具身智能尽快接近临界点,需要采取两条思路:一是在数据量不足的情况下,增加训练试错的量,让机器在现实或虚拟世界中进行大量交互、探索与反馈;二是借鉴人类的泛化迁移机制,包括类比能力(举一反三)和归纳演绎能力,这有助于弥补数据稀缺造成的泛化不足。

从人工智能的“思想源头”来看,肖教授认为,其发展路径仍未跳脱上世纪五六十年代科学家绘制的三条基本路线:符号主义、连接主义和行为主义。符号主义侧重知识和推理;连接主义模拟神经网络,通过训练习得统计关联;行为主义则强调在复杂环境中通过交互反馈形成智能(如强化学习)。他指出,这三者在今天的AI解决方案中仍然扮演着核心角色,例如连接主义用于处理大数据,符号主义用于知识注入,行为主义则在后训练和具身学习中发挥关键作用。

在产业逻辑上,肖教授认为,具身智能机器人未来必然走“场景化”和“任务化”的路径。他驳斥了“通用机器人”的伪命题,认为机器的功能受限于其物理构造。如同人类不会要求跳水冠军同时也是乒乓球冠军,机器人的身体构造决定了其能完成的任务类别。因此,工业界应在“任务与身体构造相适配”的前提下,适度集约化,拓展其适用场景和任务类型,而非盲目追求“十项全能”。

AI时代的社会重塑:伦理、价值与人类未来

随着AI能力的不断增强,其带来的风险与挑战也日益显现。肖教授强调,有身体的机器(具身智能)带来的物理伤害风险,远不如有智商的机器(认知智能)带来的隐形但破坏更大的风险。他指出,AI可以通过决策失误或欺骗人类造成大规模危害,这比物理伤害更值得警惕。从反向思考,他认为“人的身体是一种赋能,但同时也是一种禁锢”,将来为了防止AI危害人类,反而要给AI配置合适的身体,通过身体机能的限制来保障人类安全。因此,他建议将更多精力关注有“大脑”的AI所带来的风险。

面对这些风险,肖教授提出了两点应对策略:首先,要做好AI安全评测,特别是评估AI是否具有欺骗性或目的性,并建立“AI风险监管师”等职业,以便在发现AI行为异常或失控风险时及时干预(如“拔插头”)。其次,要加大AI对齐研究,特别是解决人类社会价值观的对齐问题。他指出,AI的很多问题是人类社会矛盾的延续,不同群体价值观的对立可能导致AI对齐困难,进而带来失控风险。

最后,肖教授深入探讨了AI时代**如何防止人类自身的“退化”**问题。他认为,工具的进步往往伴随着工具使用者相应能力的退步,而AI时代,由于机器将具备人类的心智和身体能力,人类心智的全面退化将成为核心问题,甚至可能改变“人之为人”的本质。

为此,他提出了几项关键举措:

  1. 建立人工智能合理应用的基本准则。不仅要防范AI作恶,更要警惕AI的滥用,尤其在教育领域,要划定AI安全和限制使用的场景,避免学生过度依赖AI而阻碍自身能力发展。
  2. 大力发展教育学和心理学。外部工具越进步,人的心理问题往往越严重。人类需要强大的内心世界来应对AI时代带来的不确定性和快速变化。
  3. 革新教育体系。传统工业化时代的教育模式已无法适应AI时代的需求。未来教育应侧重培养人类的高阶认知能力(如鉴赏、评价、批判、质疑)和AI难以具备的能力。他呼吁破除教育内卷,为孩子留出更多时间培养审美、批判性思维、好奇心和创造力,而非仅仅追求高分。
  4. 拓展人类的认知边界,重建新的价值体系。在AI极大丰富物质供给,甚至消灭传统“工作”定义后,人类的价值需要重新定义。这需要我们向外求索(太空探索、学科交叉),也需向内探寻(人类内心深处的认知),以期在旧价值体系崩塌之际,建立新的意义和价值。

肖教授的见解提示我们,在AI技术革命的洪流中,我们不仅要关注技术本身的突破与挑战,更要深刻反思其对人类社会结构、伦理道德乃至人类自我认知的深层影响。具身智能的“涌现”之路道阻且长,但对人类而言,如何在与智能机器共存的未来中,保持并升华自身的独特价值,或许才是更宏大也更紧迫的命题。

引用


  1. 肖仰华教授:具身智能距离“涌现”还有多远?·36氪·腾讯研究院(2025/3/5)·检索日期2025/6/27 ↩︎