TL;DR:
HBM是AI芯片的豪华跑车,速度快但油箱小,快被大模型“吃”垮了;HBF就像是AI的超级卡车,容量大还省钱。这两兄弟联手,有望解决AI“吃内存”的世纪难题,让大模型跑得更欢,未来甚至能塞进你手机里!
最近,AI圈又爆了个大瓜:三星的12层HBM3E终于通过了英伟达的“严苛考核”,这意味着它也拿到了给英伟达高端GPU供货的入场券。1 一时间,半导体圈的“吃瓜群众”们又沸腾了。
AI这波浪潮,不光让大家把大模型和算力芯片聊得天花乱坠,更是彻底点燃了对内存的需求。过去几年,HBM(高带宽内存)简直就是这场“算力军备竞赛”里的**“隐形明星”。没有它,英伟达的A100、H200这些AI神兽就跑不起来,更别提无数大模型像“开挂”一样迭代升级了。正因为HBM这么重要,它直接成了半导体行业的“硬通货”**,甚至让SK海力士这个“内存大佬”一举超越三星,坐上了全球最大存储芯片制造商的宝座。
卷到飞起!AI这辆“超跑”,为啥HBM快带不动了?
HBM到底是个啥?简单来说,它就是“GPU专用的豪华内存”。想象一下,它把很多层DRAM芯片像搭“积木”一样堆叠起来,再通过超宽的接口直接连到GPU上。这么一来,数据进出的通道瞬间变宽了几十倍,传输速度自然像坐上了火箭。比如英伟达H200上的HBM3e,单卡内存带宽就能飙到4.8 TB/s,简直是内存界的“布加迪威龙”。1
但问题来了,HBM这辆“跑车”虽然快到飞起,可它的**“油箱”也太小了**!容量通常只有几十GB,就算SK海力士即将量产的HBM4,单颗最高也只能做到36GB(未来有望64GB),而那些动辄上千亿参数的大模型,对内存的胃口简直是**“饕餮巨兽”。更要命的是,HBM不仅造价不菲,良品率也低,产能还有限,这直接导致一块搭载HBM的GPU动辄数万美元,成了卡住AI行业脖子的“内存墙”**。尤其是DeepSeek这类MoE模型(专家混合模型)兴起后,它们虽然降低了对算力的要求,但对内存的需求反而更加饥渴。1
就像“HBM之父”——韩国科学与技术研究院的金正浩教授说的,未来决定内存行业胜负的,很可能就是HBF(High Bandwidth Flash,高带宽闪存)。2 他的这番话可不是空穴来风,因为HBM的最大玩家SK海力士,已经跟闪存巨头闪迪**“喜结连理”,公开宣布要一起开发HBF技术,并推动行业标准化了。这波操作,简直就是半导体界的“官宣恋情”**!
HBF横空出世:闪存版“记忆神童”,容量直接拉满?
那么,HBF究竟是何方神圣?把它简单理解成“闪存版的HBM”就行了。它也是把NAND闪存芯片堆叠起来,用类似HBM的封装方式,这样就能让闪存既能像内存一样高速读数据,又能像硬盘一样存下海量内容。它的目标可不是来“抢HBM的饭碗”,而是给HBM当**“容量补位”**的。
你可以这样理解:
- HBM:负责最紧急、延迟最敏感的“短跑冲刺任务”。
- HBF:则用来装下那些超大模型权重、KV Cache等“吃容量大户”的“长途运输任务”。
金正浩教授认为,HBM是“短跑冠军”,HBF是“长途卡车”,两者搭档,才能做到既快又大。他之所以这么看好HBF,核心逻辑在于:AI的趋势已经从“算力为王”转向了**“内存为中心”。算力增长得再快,如果数据塞不进去,模型放不下,那一切都免谈,AI的发展就会被“卡死”**。13
而HBF正好能补上HBM的容量短板,让整个系统既能保持高带宽,又能拥有更大的存储空间和更低的成本。更**“心机”的是,HBF在设计之初就瞄准了AI推理的特点:读多写少、批量顺序访问。AI模型在推理时,权重基本不动,主要是高速读取数据。这一下子就巧妙地避开了NAND闪存“写入性能不佳”**的固有短板,反而把它的高密度、低成本、高稳定性等优势发挥到了极致。1
这种“扬长避短”的策略,加上SK海力士在封装堆叠上的**“祖传手艺”**和闪迪在NAND闪存领域的深厚积累,让HBF的未来充满想象空间。
“HBM7通过集成LPDDR-HBM与高带宽闪存(HBF),构建起‘内存-存储’一体化网络,支持128GB/s的HBF链路与CXL接口,实现了从内存到存储的无缝数据流转。”4 啧啧,这意思就是HBM和HBF未来可能要**“手牵手”,实现数据在它们之间丝滑切换,听起来就很有“搞头”**!
不止数据中心!AI未来要进你口袋,HBF是“秘密武器”?
HBF可不是“画大饼”,它的落地时间表已经出来了:闪迪和SK海力士计划在2026年下半年推出首批HBF样品,预计2027年初就能看到搭载HBF的AI推理设备面世。这意味着,最快两年内,它就能走出实验室,**“真刀真枪”**地出现在我们面前了。1
首批尝鲜的,多半会是GPU和服务器厂商。想想看,英伟达H200这种“吞金兽”,搭载141GB HBM3e,成本高到离谱。如果有了HBF这个**“外挂油箱”,不仅能一次性装下更多模型,还能大大减少从SSD调数据的延迟,简直是为GPU“减负续航”**的神器。1
但HBF的野心远不止数据中心。在边缘设备和个人计算领域,它同样可能掀起一场**“内存革命”。我们现在看到的AI PC、AI手机都在大张旗鼓地宣传设备端运行大模型,可现实是,这些终端设备的内存根本“喂不饱”**上百亿参数的模型。如果HBF能以小型化模组,甚至和处理器“一体封装”的方式进入终端设备,那用户就能在本地调用更大的AI模型,享受到更流畅的语音助手、更智能的生产力工具,甚至真正离线运行的AI应用。14
最重要的是,HBF凭借其**“出身”——基于NAND闪存,天然具有成本和功耗优势。HBM虽然速度快,但价格昂贵、功耗感人。而HBF密度更高,单位容量价格更低,对于电量有限、空间寸土寸金的笔记本、智能手机、XR设备来说,简直就是“救星”**般的存在。
一句话总结:
- 在云端,HBF能缓解GPU的内存瓶颈,让超大模型跑得更高效。
- 在终端,它可能成为AI普及化的**“临门一脚”**。
当然,短期内HBF要大规模落地在手机、PC这些边缘终端,可能还需要点时间“发育”。但它在AI数据中心的大规模更新,无疑会从底层改变AI的推理方式,进而改变我们的AI体验。
写在最后
从HBM的**“闪耀登场”,到HBF的“蓄势待发”,我们看到的其实是一个清晰的趋势:AI已经把内存和存储推到了舞台的“C位”。没有HBM,就没有今天的算力繁荣;而如果没有更大、更便宜、更低功耗的存储介质,AI的未来也可能被“卡脖子”**。
HBF之所以值得期待,不是因为它要“全面碾压”HBM,而是它巧妙地补上了一个关键缺口——容量。它让GPU不再像背着小油箱的跑车那样**“捉襟见肘”,也给未来的AI PC、边缘计算带来了无限的想象空间。当速度与容量形成合力,AI的运行方式很可能会被彻底改写,未来的AI世界,或许真的会“内存中心化”**。1
但问题也随之而来:
- HBF真的能像HBM一样,从技术概念变成行业**“标配”**吗?
- 在数据中心率先落地之后,它能否顺利走向个人计算终端,实现**“全民普及”**?
- 当存储不再是瓶颈时,下一个**“掣肘”**AI发展的环节,又会是什么?
这些问题的答案,或许要等到2027年HBF首批设备面世后才能揭晓。但可以肯定的是,定义AI的边界,不只是算力,还在于储存。而这场关于**“记忆力”**的比赛,才刚刚开始!
引用
-
HBF要火!AI浪潮的下一个赢家浮出水面:闪存堆叠成新趋势·雷科技·(2025/9/23)·检索日期2025/9/23·https://www.leikeji.com/article/71856 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
HBF要火!AI浪潮的下一个赢家浮出水面:闪存堆叠成新趋势·新浪财经·(2025/9/23)·检索日期2025/9/23·https://t.cj.sina.cn/articles/view/5061312402/12dad7f9202002i74c ↩︎
-
HBF要火,AI浪潮的下一个赢家浮出水面:闪存堆叠成新趋势·36氪·(2025/9/23)·检索日期2025/9/23·注意:此为图片描述中的来源,非文章本体链接,但提供了背景信息 ↩︎
-
AI时代下,HBM掀起下一代“存储革命”·电子工程专辑·张河勋(2025/8/14)·检索日期2025/9/23·https://www.eet-china.com/news/202507175418.html ↩︎ ↩︎