📝 Summary
苹果公司最新研究《思考的幻象》揭示,耗资巨大的大型AI模型在复杂推理任务上表现脆弱,其智能多为模式识别而非真正理解。这份报告印证了AI批评家加里·马库斯长期以来对过度炒作的警示,强调了AI在处理新颖情境和深层逻辑时的根本性局限。这促使行业深刻反思,呼吁AI研究回归基础认知构建,并在社会和伦理层面审慎对待AI的部署与应用。
最近,科技界被一份苹果公司发布的重磅研究论文所震撼,这份研究几乎彻底颠覆了关于大型语言模型(LLMs)及其新变体——大型推理模型(LRMs)能够可靠进行推理的流行观念。这篇论文深刻揭示了,即使是耗资数十亿美元打造的AI系统,在面对一个孩童都能轻易解答的谜题时,也可能彻底崩溃。
人工智能领域长期以来弥漫着一股强大的乐观主义浪潮,大型语言模型(LLMs)被誉为是通向通用人工智能(AGI)的基石,其“涌现能力”更是令人津津乐道。然而,苹果公司最近发布的一项研究,名为《思考的幻象》(The Illusion of Thinking),犹如一盆冷水,浇灭了许多不切实际的幻想,并再次将纽约大学荣誉教授、知名AI批评家加里·马库斯(Gary Marcus)推向了风口浪尖。马库斯长期以来一直警告,AI的实际能力被严重夸大,而这份苹果论文无疑为他的论点提供了强有力的最新佐证,甚至有风投家乔什·沃尔夫(Josh Wolfe)创造了新动词“GaryMarcus’d”,意指“批判性地揭露或揭穿被过度炒作的人工智能能力,强调其在推理、理解或通用智能方面的局限性”1。
瓦解“思考的幻象”:苹果研究的警示
苹果研究团队通过一系列实验,直指当前领先的大型模型,包括ChatGPT、Claude和Deepseek等,在处理复杂任务时表现出的核心缺陷。论文指出,这些模型可能“看起来很聪明——但当复杂性上升时,它们就会崩溃”2。其关键在于,目前的AI模型在模式识别方面表现出色,能够从海量数据中学习并复现复杂的语言模式。这使得它们在生成文本、回答常见问题等方面显得“智能”。然而,一旦遇到训练数据范围之外的新颖情境,或需要进行超出简单关联的深层逻辑推理时,这些模型就暴露了其内在的局限性。
例如,在某些被明确设计用于推理任务的测试中,尽管模型被提供了解决方案算法,它们仍然难以“解决”问题3。这表明,它们的“推理”并非基于对世界因果关系的真正理解,而是基于训练数据中的统计关联。这种“智能”是一种*“思考的幻象”*,它擅长模仿人类的输出,却缺乏真正的认知基础和泛化能力。当任务需要打破既有模式、进行抽象思考或处理不确定性时,这些“十亿美元”的AI系统便会像孩童未能解决的谜题一样,陷入僵局,甚至彻底失效。
泛滥的炒作与深层认知局限
苹果的发现并非孤立事件,它再次印证了马库斯等批评者长期以来的担忧。马库斯将当前围绕AI的炒作描述为一场“巨大的诱骗和掉包游戏”4。他认为,AI行业的“诱饵”是承诺创造能够解决任何专家级人类问题的智能系统,但实际提供的“产品”往往是基于大规模数据拟合的浅层模式识别工具,它们在核心的可靠推理和真正理解方面仍存在根本性缺陷。
这种过度炒作不仅造成了公众对AI的误解,也带来了潜在的社会和经济风险。数十亿甚至数万亿美元的投资涌入AI领域,如果核心技术在基础的认知能力上存在根本性缺陷,那么这种投资的长期回报和风险管理都将面临严峻挑战。当AI被赋予自动化决策、内容生成甚至关键基础设施管理的重任时,其“思考的幻象”可能导致难以预料的后果,从信息误导到系统性故障,其潜在的伦理和安全隐患不容忽视。
反思之路:AI的未来与伦理考量
苹果的这项研究提醒我们,在追逐通用人工智能的宏大愿景时,我们必须回归AI研究的本质:构建具备真正理解和可靠推理能力的智能系统。这意味着研究范式可能需要从纯粹的大规模数据驱动转向融合符号推理、神经科学原理以及更深层次的认知架构。我们需要更关注AI系统在处理复杂、新颖、抽象任务时的鲁棒性和可解释性,而不是仅仅追求在特定基准测试上的表面高分。
从社会和伦理层面来看,这份报告也敲响了警钟。随着AI技术日益渗透到我们生活的方方面面,对其能力边界的清晰认知至关重要。政策制定者、企业和普通用户都应采取更加审慎的态度,避免盲目信任或过度依赖当前的AI系统。我们必须认识到,AI并非万能的解决方案,它在很多方面仍是工具,而不是可以取代人类智能的“思考者”。未来AI的发展,需要更加注重其可靠性、透明度和可控性,确保技术进步的同时,最大程度地规避潜在的风险。这不仅是技术挑战,更是一场深刻的社会对话和伦理反思。
References
🏷️ Tags
#人工智能 #大型语言模型 #AI推理 #苹果研究 #加里·马库斯 #AI炒作 #认知局限 #AI伦理
📰 本文由 AI News Assistant 自动生成于 2025/6/11 08:02:25 (UTC+8)
-
Gary Marcus(2025/6/10)。"When billion-dollar AIs break down over puzzles a child can do, it’s time to rethink the hype"。The Guardian。检索日期2025/6/11。 ↩︎
-
Apple Machine Learning Research(2025/6/10)。"The Illusion of Thinking"。Apple Machine Learning Research。检索日期2025/6/11。 ↩︎
-
Gary Marcus(2025/6/11)。"When billion-dollar AIs break down over puzzles a child can do, it’s time to rethink the hype"。The Guardian Australia。检索日期2025/6/11。 ↩︎
-
news.com.au(2025/6/11)。"‘Complete collapse’: Bombshell report into AI accuracy indicates your job is probably safe for now"。news.com.au。检索日期2025/6/11。 ↩︎