随着传统AI模型面临严峻的“能源危机”,科学家正转向神经形态计算,试图通过模拟人脑的极低功耗(仅约20瓦)和高效率来驱动下一代智能。这项颠覆性技术有望摆脱传统计算架构的束缚,为AI的可持续发展和迈向通用人工智能(AGI)提供全新路径。
在人工智能爆炸式发展的当下,大语言模型等技术以惊人的能力改变着我们的世界。然而,这场技术革命的背后,一个日益严峻的现实浮出水面——AI对能源的巨大需求正演变为一场前所未有的“能源危机”。预测显示,到2027年,仅运行这些AI模型的电费就可能高达25万亿美元,甚至超越美国当年的GDP1。这种不可持续的增长,正迫使我们重新审视AI的基础架构。
与此形成鲜明对比的是,自然界中最强大的智能体——人类大脑,每天仅需消耗约20瓦的能量,相当于一个家用LED灯泡的功率,却能驱动860亿个神经元和100万亿个突触构成的复杂网络,实现无与伦比的推理、学习和预测能力。这种巨大的效率鸿沟,促使科学家们思考一个核心问题:我们能否让AI也像人脑一样高效?
答案指向了神经形态计算(Neuromorphic Computing)。这项旨在模拟人脑结构和运作方式的前沿技术,正被视为下一代AI的关键方向,其核心目标之一便是用“灯泡级”的能耗驱动强大的智能。美国国家实验室主导的最新研究进展更是令人振奋:科学家们正尝试打造一台占地仅两平方米、神经元数量堪比人脑皮层的超级计算机,其运行速度可能比生物大脑快25万到100万倍,而功耗仅需10千瓦——略高于家用空调的能耗12。这不仅仅是效率的提升,更是一场深刻的计算范式变革。
神经形态计算:模拟大脑的效率悖论
传统的人工智能模型,如目前主流的深度学习网络,多基于冯·诺依曼架构的二进制超级计算机运行。在这种架构下,计算单元(处理器)和存储单元(内存)是分离的。数据在两者之间频繁传输,造成了显著的**“冯·诺依曼瓶颈”**,即数据传输的速度和能耗成为了系统性能的限制。这种“存算分离”的模式,尤其在处理海量数据时,导致了巨大的能耗和延迟。例如,训练GPT-3模型需要大约1287兆瓦时(128.7万度)的电力,相当于美国约121个家庭一整年的用电量3。
神经形态计算则彻底颠覆了这一范式,它通过模仿生物神经网络的结构和功能,将记忆、处理和学习整合到一个统一的设计中。其核心是脉冲神经网络(Spiking Neural Networks, SNN),其工作原理更接近生物神经元的信号传递:信息以脉冲(或“尖峰”)形式传递,并且只在必要时激活电路,而非传统ANN的持续激活。这种“事件驱动型”通信是其低功耗的关键13。
神经形态计算的主要特点包括:
- 事件驱动型通信: 仅在峰值或事件驱动下激活必要的电路,显著降低功耗,尤其适用于稀疏和实时的AI任务。
- 内存计算(In-Memory Computing): 数据处理发生在存储位置,而非在处理器和内存之间来回移动,从而大幅减少数据传输延迟和能耗13。
- 适应性: 系统能够随着时间的推移自行学习和发展,而无需集中更新或频繁的外部干预,体现出更强的自适应性。
- 可扩展性: 神经形态系统的架构允许轻松扩展,可以容纳更广泛和复杂的网络,同时不会大幅增加资源需求1。
这种内在的差异,使得神经形态计算机在面对复杂、模糊或对抗性环境时,展现出传统AI难以企及的鲁棒性和智能性。例如,当测试员穿着印有停车标志的T恤在自动驾驶汽车面前走过时,由传统AI控制的汽车可能因为无法辨别上下文而做出停车反应。然而,神经形态计算机通过反馈循环和上下文驱动的校验来处理信息,它能明确判断出停车标识位于T恤上,从而让汽车继续行驶1。这正是它模拟自然界中最高效、最强大的推理和预测引擎的优势所在。科学家们由此相信,下一波人工智能的技术爆发必定是物理学与神经科学的深度结合。
从实验室到产业:技术突破与市场前瞻
目前,神经形态计算的相关研究正如火如荼地展开。虽然现有神经形态计算机的复杂程度(例如拥有10亿多个神经元和1000多亿个突触连接)与人类大脑相比仍是九牛一毛,但它已合理证明了该项技术完全可以实现大脑级的扩展。美国国家标准与技术研究院(NIST)的Jeff Shainline表示,一旦能够在商业铸造厂实现创建网络的完整流程,就可以迅速扩展到非常庞大的系统,因为“能制造出一个神经元,那么制造一百万个神经元就相当容易”1。
全球科技巨头和初创公司正处于这场技术革命的最前沿。IBM于2014年研发的TrueNorth芯片以及英特尔在2018年推出的Loihi芯片,都是旨在模拟大脑神经活动的硬件产品,为后续的新AI模型铺平了道路14。此外,一些专注于研究神经形态计算的初创公司也开始崭露头角,例如BrainChip推出了Akida神经形态处理器,专为低功耗但功能强大的边缘AI设计,可以广泛应用于始终在线的智能家居、工厂或城市传感器等领域14。
值得一提的是,中国在类脑计算(神经形态计算的一个重要分支)领域也取得了显著进展。浙江大学牵头研发的达尔文3芯片于2023年发布,单芯片支持超过200万个神经元和1亿个神经突触。清华大学类脑计算研究中心研发的天机芯,更是全球首款异构融合类脑芯片,于2019年作为封面文章发表在《自然》(Nature)期刊上,实现了中国在芯片和人工智能两大领域《自然》论文的零突破3。这些成果表明,神经形态芯片可分为仅支持SNN架构和支持SNN与ANN混合计算架构两大类,正不断拓展其技术边界。
神经形态计算市场正呈现指数级增长态势。The Business Research Company预计,到2025年,全球神经形态计算市场规模将达到18.1亿美元,复合年增长率高达25.7%1。尽管前景光明,这项技术仍面临诸多挑战。首先,人类对大脑的架构和功能仍知之甚少,现有模型可能忽略了大脑功能的重要方面,这使得神经形态芯片的设计目标存在不确定性,增加了研发难度3。其次,模拟生物神经元和突触行为的技术难度高,例如忆阻器虽然能模拟突触可塑性,但其非线性电阻变化和器件集成的复杂性仍需克服3。此外,短期内神经形态芯片制造成本高昂,生态系统尚未完全成熟,大规模推广仍面临挑战。在通用计算和大型模型训练中,CPU/GPU仍不可或不可或缺,因此未来神经形态芯片很可能与传统深度学习芯片互补发展,而非完全取代3。
尽管如此,神经形态计算的潜力不容忽视。从更长远来看,科学家们希望神经形态计算能够超越人工智能传统界限,更接近人类智能的推理模式,为下一代智能系统乃至最终实现通用人工智能(AGI)带来全新的技术突破。随着技术不断成熟,类脑计算有望在低维信息处理、高速视觉处理、边缘计算、可穿戴设备、自动驾驶、机器人以及医疗(如神经系统疾病治疗)等领域发挥关键作用3。我们正在见证一场从根本上重新构想AI的深刻变革,它不仅关乎技术,更关乎人类智能的未来。
References
-
量子位(2025/6/16)。20瓦就能运行下一代AI?科学家瞄上了神经形态计算。36氪。检索日期2025/6/16。 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Wallstreetcn.com(2025/6/16)。20瓦就能运行下一代AI?科学家瞄上了神经形态计算。华尔街见闻。检索日期2025/6/16。 ↩︎
-
王媛丽(2025/1/21)。下一代人工智能网络:类脑计算如何开启AI与HI深度融合新纪元?。第一财经。检索日期2025/6/16。 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Exoswan.com。 Neuromorphic Computing Startups。检索日期2025/6/16。 ↩︎ ↩︎