TL;DR:
高通携AI200和AI250芯片高调重返数据中心,凭借其在移动端积累的NPU能效优势,精准切入AI推理这一万亿美元级的增长市场。此举不仅是对英伟达主导地位的商业挑战,更预示着AI算力向成本效益、能源效率和专业化硬件多元发展的深刻趋势,其与沙特HUMAIN的合作也揭示了AI基础设施全球化布局和数字主权的战略考量。
北京时间10月27日晚,高通(Qualcomm)的一项重磅发布,在全球科技界掀起波澜。该公司推出了AI200及AI250两款数据中心AI推理芯片,以及配套的加速卡和机架级解决方案,计划分别于2026和2027年商用1。消息一经发布,高通股价应声飙升,盘中一度上涨22%1,彰显了资本市场对其“再入局”数据中心市场的积极预期。这并非高通首次涉足该领域,但其此次的战略定调、技术路径与市场选择,均与以往大相径庭,预示着AI算力格局乃至整个产业生态可能发生的深层变革。
战略意图解读:高通的“再入局”与多元化急迫性
高通对数据中心市场的兴趣由来已久,但此前的尝试(如2017年的Centriq 2400服务器芯片)却铩羽而归,甚至在2018年大幅裁撤了相关团队2。此次卷土重来,并非偶然,而是其在“多元化战略”重压下的必然选择。
长期以来,高通的营收支柱是手机芯片和技术授权费。然而,来自核心客户苹果的“去高通化”风险日益逼近,其与高通的基带购买协议将于2026年末到期,这可能导致高通损失高达77亿美元的年收入3。面对这一结构性增长瓶颈,高通迫切需要培育新的营收支柱。汽车芯片和物联网(IoT)虽表现亮眼,但数据中心AI市场,尤其是推理领域,无疑提供了更具想象空间的“第二增长曲线”。
高通CEO Cristiano Amon在多个场合明确表示了重返数据中心市场的决心,并强调了公司在CPU和NPU领域的深厚积累是其合理延伸1。为了强化这一战略,高通在近几年采取了一系列行动:
- 收购Nuvia (2021年,14亿美元):这家专注于数据中心CPU的公司,为高通带来了核心的Arm架构服务器处理器设计能力2。
- 推进收购Alphawave (2024年,24亿美元):Alphawave在高端接口IP(如SerDes)方面的优势,将极大增强高通在数据中心高速有线连接和互联能力上的竞争力,这对构建高性能AI系统至关重要2。
- 与英伟达合作 (2025年5月):高通宣布计划采用英伟达技术,定制生产数据中心CPU以搭配英伟达GPU,这展现了其灵活的合作策略和对生态兼容性的重视1。
这些布局共同构筑了高通此次“再入局”的底层能力储备,使其不再是五年前的“裸奔者”。更关键的是,高通此番不再与英特尔的通用计算CPU正面硬刚,而是将靶心精确瞄准了AI推理这一细分赛道。
技术原理与能效哲学:移动基因如何重塑数据中心推理
AI计算通常分为两个主要阶段:训练(Training)和推理(Inference)。训练阶段模型学习海量数据中的模式,对算力要求极高且需要强大的并行计算能力,英伟达的GPU及其CUDA生态在此领域占据绝对主导地位。而推理阶段则是模型部署后对新数据进行预测和决策,其特点是高并发、低延迟,且对**能效比和总拥有成本(TCO)**极端敏感。
高通此次推出的AI200和AI250芯片正是基于对推理市场独特需求的深刻理解。它们的核心技术和设计理念可以概括为:
- NPU基因的升维应用:高通在移动芯片领域积累数十年的Hexagon NPU(神经网络处理器)技术是其核心竞争力3。NPU作为一种专用集成电路(ASIC),专为执行神经网络运算设计,通过固化矩阵乘法、卷积等AI常用计算单元,能在极低的功耗下实现极高的AI计算效率。高通正在将这种经过数十亿台移动设备验证的能效优势,从毫瓦级的手机场景,扩展到千瓦级的机架场景,实现**“ASIC in the Data Center”**的创新路径3。
- LPDDR内存策略:与当前主流AI加速芯片普遍采用HBM(高带宽内存)不同,AI200加速卡支持每张卡768GB的LPDDR内存1。LPDDR虽然带宽不如HBM极致,但其成本效益显著,且功耗更低。对于大语言模型(LLM)和多模态模型(LMM)的推理任务,模型参数一旦加载,访问模式相对固定,有时对内存容量的需求会优先于对极限带宽的需求。高容量LPDDR允许将大模型完整加载在一张卡中,减少跨卡通信,从而优化整体TCO3。
- 近存计算(Near-Memory Computing):AI250解决方案将首次采用基于近存计算的创新内存架构1。传统冯·诺依曼架构下,计算单元和存储单元分离,数据在两者间频繁搬运造成“内存墙”和“功耗墙”。近存计算的核心思想是将部分计算功能尽可能靠近存储单元,甚至集成到存储芯片内部,从而大幅减少数据移动距离和能耗。高通宣称,这将带来“超过10倍的有效内存带宽提升并显著降低功耗”3。
- 机架级解决方案与散热:两款机架解决方案均采用直接液冷散热,支持PCIe纵向扩展、以太网横向扩展,并具备机密计算功能。单机架功耗为160kW1,这在追求高性能的同时,体现了对能源效率和数据中心运营成本的考量。
高通的策略是,不与英伟达在训练的“极致算力”上正面竞争,而是在推理的“极致能效与TCO”上开辟新战场,用移动芯片的基因重塑数据中心的“省钱”哲学。
产业生态与未来竞争态势:3000亿美元蓝海的竞速赛
AI推理市场正经历爆炸式增长。巴克莱银行研究机构预测,到2026年,AI推理计算需求将占通用人工智能总计算需求的70%以上,甚至可能超过训练计算需求的4.5倍,而现有芯片资源远不足以满足,需增加四倍的芯片资本支出,总额或将接近3000亿美元1。高盛的研报也预估,到2027年ASIC芯片在AI芯片需求中的占比将从2025年的38%提升至45%2,这为高通的NPU-ASIC路径提供了市场背书。
面对这片万亿蓝海,众多巨头和新兴力量早已摩拳擦掌:
- 英伟达:虽然在训练市场一家独大,但其RubinCPX GPU也瞄准了大规模上下文处理和AI推理任务,计划2026年底上市1。
- 谷歌:已于Google Cloud Next 25大会发布了专为大规模AI推理设计的TPU芯片“Ironwood”1。
- 华为:其昇腾系列新品中的“950PR”也计划于2026年第一季度推出,着力提升推理Prefill性能1。
- 新兴创企:如Groq在AI推理芯片领域获得7.5亿美元融资,并计划建设“全球最大推理数据中心”1。
- 云巨头:OpenAI与甲骨文达成超过3000亿美元的推理算力采购合同1,预示着云服务商对推理算力的巨大需求和供应链多元化的趋势。
高通的竞争优势在于其开放的软件栈和对主流AI框架的兼容性,以及其“每美元每瓦特”的性能优势。Qualcomm AI Inference Suite等工具支持与Hugging Face模型库的一键部署,降低了开发者的迁移成本,致力于构建一个对开发者友好的生态系统3。
此次高通与沙特阿拉伯AI企业HUMAIN的战略合作,是其数据中心战略落地的关键一步。HUMAIN计划自2026年起,部署高达200兆瓦(约1250个机架)的Qualcomm AI200和AI250机架式解决方案2。这不仅可能为高通带来超过30亿美元的收入,更重要的是,高通将为该项目提供“全球人工智能推理服务”,使其成为世界上首个完全优化的边缘到云混合人工智能(项目),旨在将沙特阿拉伯打造成全球人工智能中心1。这不仅是商业合作,更体现了地缘政治和数字主权在AI基础设施建设中的战略考量。
哲学思辨与社会影响:能源、主权与AI的未来形态
高通此次的策略,超越了简单的商业竞争,触及到AI发展面临的深层挑战和未来方向。
首先是能源危机。国际能源署(IEA)数据显示,数据中心、AI和加密货币在2022年的电力消耗已占全球总量的2%,预计到2026年,仅数据中心的电力需求就可能超过1000太瓦时,相当于日本整个国家的用电量3。在能源成本日益成为核心制约的时代,高通对“能效”和“TCO”的极致追求,不仅是商业策略,更是对可持续发展和地球承载力的积极回应。当AI从实验室走向产业,从追求“更快”到同时关注“更省”,这不仅是技术路径的选择,更是对未来社会基础设施的负责任考量。
其次是数字主权与全球AI基础设施。高通与沙特HUMAIN的合作,表明AI基础设施的建设正与国家战略和数字主权深度绑定。沙特“2030愿景”下对AI的巨额投入,反映了各国在全球AI竞赛中争取战略地位的紧迫性。这种“边缘到云混合AI”的愿景,不仅是对算力部署模式的创新,更是对数据本地化、隐私保护和国家安全需求的响应。未来,AI算力将不再是少数科技巨头的专属,而可能成为各国竞争力的核心要素,催生更多定制化、本地化的AI生态。
最后是AI的“随时待命”哲学。英伟达CEO黄仁勋曾指出,AI的真正爆发点不是训练,而是推理,其增长幅度将是“十亿倍”3。他甚至预言未来每个人都可能佩戴AI设备,需要比现在多得多的计算能力,且必须具备超低延迟的即时交互能力。高通将移动端积累的“端侧AI”与云端推理结合,正是在构建这种“随时待命”的AI基础设施。它意味着AI将更加无缝地融入我们的生活,从智能手机、汽车到各种物联网终端,无处不在地提供个性化、实时的智能服务。这种泛在化AI对现有社会结构、工作方式乃至人机关系都将产生深远影响。
高通的此次战略性回归,远不止是新增了两款芯片,它是一次深刻的产业信号,预示着AI算力市场正从“军备竞赛”式追求原始算力,转向**“生态战”式追求能效、TCO和场景化定制**的多元化未来。能否凭借其独特的能效哲学、开放的生态策略以及对全球数字主权需求的敏锐洞察,在高额营收的挑战下,真正撬动这片万亿美元的蓝海,高通的“重返”之路,才刚刚开始。