TL;DR:
2026年4月,中国AI界将迎来一场“南北大决战”:DeepSeek V4带着万亿参数和“过目不忘”的黑科技杀到,而腾讯则由OpenAI归来的大神姚顺雨领衔,试图用30B的小模型“降维打击”。一边是剑指国产算力巅峰的创业卷王,一边是急于夺回产品控制权的社交巨头,这波“交卷”不仅看分数,更要看谁能定义大模型的下半场。
2026年4月,中国AI圈的气氛突然变得有些“肃杀”。
大模型江湖里的两位顶流——DeepSeek的梁文锋和腾讯的姚顺雨,几乎在同一时间把考卷拍在了桌上。一个是用量化思维把算力玩出花的理工男,一个是被腾讯用最高规格从海外请回来的学术派大神。[^1]
这种“王见王”的局面,上一次出现可能还是在武侠小说的华山论剑里。但这次,两张卷子的题目高度一致,逻辑却南辕北辙。
DeepSeek V4:万亿参数的“瘦身”与“国产心”
先看DeepSeek V4。如果你对DeepSeek的印象还停留在“那个帮大家省钱的模型”,那V4可能会让你重新认识什么叫“不仅省钱,还能记你一辈子”。
这次V4打出的王牌是长期记忆(LTM)。在此之前,大模型总是像那个只有7秒记忆的鱼,聊着聊着就把你之前交待的需求忘了。但梁文锋团队在2026年初祭出了“条件记忆”(Engram)架构。[^5]
简单来说,这玩意儿就像给AI装了一个“哈希索引”的大脑。当你问它陈年旧账时,它不再像傻小子一样空烧GPU算力去翻几万行的上下文,而是直接从CPU内存里一秒调取。[^5]
更带感的是,V4要挑战一个行业禁忌:全链路国产化。它将深度适配华为昇腾、寒武纪等国产芯片。[^2] 以前大家都觉得离开英伟达大模型就得“歇菜”,但V4想证明,国产算力不仅能跑大模型,还能跑出万亿参数的高分。
腾讯的“那个决定”与姚顺雨的逆袭
相比于DeepSeek的“暴力美学”,腾讯这边的戏份更像是一场“收复失地”的复仇剧。
时间回到2025年初,腾讯做了一个让行业震惊的决定:在自家产品“元宝”里接入DeepSeek。[^1] 这在当时被解读为“务实”,但也相当于承认:自研模型暂时打不过创业公司。流量给出去容易,把“大脑”拿回来难。
于是,腾讯从OpenAI请回了95后科学家姚顺雨,给了他总办首席AI科学家的Title。姚顺雨带来的新混元模型走的是“极致优雅”路线:只有30B参数。[^4]
在一个动辄万亿参数的年代,30B看起来有点像“弟弟”,但姚顺雨的逻辑是:真正的突破是用最简单的办法解决最难的问题。他甚至搞了一套CL-bench评测基准,试图夺回话语权。[^3]
“你的模型参数多算你厉害,但我定义的‘好模型’得看上下文学习能力。”这波操作,像极了学霸在考试前重新定义了什么叫“高分”。
下半场:赛跑结束,分道扬镳
4月之后的AI江湖,不再是简单的参数竞赛,而是演变成了两条截然不同的路线。
- DeepSeek的路线:底层架构大改,开源、高效、死磕长期记忆,并且要把自己的命根子(算力)牢牢扎在国产芯片的土里。
- 腾讯的路线:深度融合场景。微信、QQ、游戏、企业微信,腾讯不缺应用场景。姚顺雨的任务,是让那个30B的小脑瓜能真正接住这些流量,把元宝的大脑从DeepSeek手里“赎”回来。[^1]
这很有意思。2025年腾讯接入DeepSeek,是巨头对创业公司的“技术低头”;2026年4月的同台竞技,则是巨头试图用“场景+效率”重新找回场子。
中国大模型的故事,正从最初的“全员赛跑”,变成了现在的“赛道分歧”。有人想做数字世界的地基,有人想做最懂用户的管家。这种分道扬镳,其实比赛跑更有看头。[^1]
毕竟,不管谁赢,最后那个能帮我们重构代码、记住我们昨天写了啥、还能在国产笔记本上流畅运行的AI,才是我们要的“真香”。