TL;DR:
DeepSeek流量骤降,并非偶然,而是大模型“幻觉”与“AI味儿”的集中体现。这不仅侵蚀了用户信任和商业潜力,更预示着AI生成内容对全球信息生态和人类语言多样性的深远污染,呼唤在技术狂飙中重塑批判性思维与人机共生范式。
曾几何时,DeepSeek被誉为“国运级”项目,以其强大的生成能力引发全球轰动。然而,仅仅半年光景,根据QuestMobile发布的《2025年二季度AI应用价值榜》显示,DeepSeek月均下载量从第一季度的8111.3万骤降至2258.9万,降幅高达72.2% 1。这一断崖式下跌引发业界深思:DeepSeek是正经历“方仲永”式的平庸化,还是在策略性地“闷声发大财”?表象之下,深藏着大模型时代最为核心的挑战——信息幻觉、内容同质化以及由之引发的信任危机,这不仅关乎特定模型的兴衰,更触及AI与人类文明共生演进的本质。
AI“幻觉”与“机械积木”:信任的侵蚀与效用的边界
DeepSeek流量暴跌的核心诱因,直指其日益严重的“幻觉”现象及普遍被诟病的“AI味儿”。用户反馈如潮水般涌来:无论是@光年之外XXX咨询挽回前男友得到的“公安备案”和“南极科考”建议,还是@螺蛳粉大王XX遭遇的“十家不存在的外卖店”,抑或是@半夏_XXX和@娜娜真爱X发现的凭空捏造的“国家发改委报告”和“ComcSoft Corporation”公司信息,都清晰揭示了DeepSeek在事实性与忠实性幻觉上的严重偏离 1。这些案例不仅令人啼笑皆非,更严重侵蚀了用户对AI工具基本信任的基石。
同时,一种被称作“AI味儿”的语言风格正悄然蔓延,它表现为模型对连接词(如“首先/其次/综上所述”)和程式化短语(“近年来”、“请注意”)的过度依赖,以及对冰冷数据的极尽追求,哪怕这些数据是模型“自行编造”的 1。@学术兔的导师将DeepSeek生成的论文引言批注为“像机器人拼好的积木”,精确概括了这种“语言暴力”——内容逻辑缺乏深层推导与求证,呈现出一种机械、生硬的完美,而非人类思考的自然流淌。这种“完美”反倒成为用户急于“去除”的特征,标志着用户审美从追求效率转向对真实感和多样性的回归。
大模型“数据代谢病”:生态自噬的危机
“AI味儿”与“幻觉”并非孤立的技术缺陷,而是大模型底层逻辑与全球数据生态系统深层次“病变”的显现:
- AI生成内容污染训练池: 据斯坦福大学《2025年人工智能指数报告》显示,中国有2.3亿生成式AI用户,其中30%用于内容创作 1。这些带有“机械基因”的AI产出,正在作为新的语料被模型重新吸收,形成“数据的近亲繁殖”2。当“沙漠中的雪人”成为常态,真实的“绿洲”反而被视为异常。这种“数据代谢病”导致的信息熵持续衰减,使得训练出的新模型如同“用蒸馏水酿酒”,语料贫瘠化已是必然 1。
- 人类语言习惯被反向驯化: 大模型在训练和微调过程中,无意识地将人工标注员的语言习惯(如非洲标注员对“delve”一词的偏爱)内化并放大,进而反向影响了全球用户的语言表达习惯,导致特定词汇使用量暴增 1。这揭示了一种更深层次的危机:AI不仅在模仿人类,更在潜移默化地重塑人类的语言和思维方式,进一步加剧了语言多样性的荒漠化。
- “娘胎病”——大模型致幻的认知根源: 马里兰大学的AutoHallusion框架测试表明,像GPT-4V这样的多模态模型在“违和场景”下准确率骤降,甚至会强行用先验知识解释异常,而非依据视觉输入 1。这说明大模型的认知幻觉根源在于其视觉-语言模块的割裂,语言模块过度依赖先验知识,压制了视觉信号的修正作用。DeepSeek在专业论文写作中虚构文献和数据,正是这种“认知失调”的体现 3。
中文语料贫血与内容审查的桎梏
DeepSeek作为面向中国市场的模型,还面临着更为严峻的本土化挑战。赛迪智库报告指出,全球主流AI大模型训练语料库中,英文语料占比超过90%,中文语料不足5% 1。高质量的中文语料,尤其是CSSCI核心期刊等学术资源,数字化率仅三成,大量优质内容因成本、版权等原因无法被用于训练 1。这种“贫血的根基”使得中文大模型在知识广度和深度上先天不足。
此外,内容审查机制在保障安全性的同时,也可能过度限制了模型的表达自由,使得输出倾向于“安全但平庸”的表达 1。在追求合规性的过程中,语言的“荆棘与花朵”被剪除,进一步加剧了“AI味儿”和创造力的丧失。
商业化困境与产业生态重塑:信任是核心资产
DeepSeek流量的断崖式下跌,直接指向其在商业化和市场占有方面的严峻挑战。在消费者层面,持续的“幻觉”和“AI味儿”正在迅速消磨用户耐心,降低用户粘性,导致产品被弃用。这种用户体验的负面反馈,最终将转化为市场份额的流失和品牌形象的受损。对于任何面向消费者的通用大模型而言,用户信任是其最为宝贵的商业资产,一旦受损,重建难度极高。
从产业生态角度看,DeepSeek的困境也折射出当前大模型赛道的普遍挑战。模型性能的“天花板”效应,以及同质化竞争下用户体验差异的凸显,使得纯粹依靠“参数规模”和“通用能力”取胜的模式日益艰难。未来,成功的商业化模式将更依赖于:
- 垂直领域深耕: 将通用大模型与特定行业知识和应用场景深度结合,提供更专业、更精准的解决方案,减少幻觉和“AI味儿”的风险 4。
- 多模态融合与认知修正: 提升模型对真实世界多模态信息的理解和校验能力,从根本上解决“幻觉”问题,例如加强视觉-语言模块的协同,减少对单一先验知识的过度依赖。
- 人机协同与可信AI: 商业应用将更注重构建“人在回路”(Human-in-the-Loop)系统,将AI作为辅助工具,而非完全替代人类判断。同时,模型的可解释性、透明度和可信赖性将成为企业级AI应用的核心竞争力,而非单纯追求天花行空的创造性 3。
DeepSeek的经历提醒所有大模型玩家,即使技术再领先,若无法在商业实践中有效解决用户信任和内容质量问题,流量和用户终将选择“用脚投票”。“闷声发大财”的假设,只有在建立了坚实的信任基础和差异化的商业价值后才能成立。
哲学思辨:重掌思维主控权,在工具理性中保存思想的野性
DeepSeek所面临的“方仲永困境”,不仅是技术之殇,更是对人类自身在技术浪潮中角色定位的深层拷问。这折射出人类对技术寄予的“僭越”期待——渴望AI成为完美无缺的思考替代品,而非工具。当技术变得过于“完美”而失去真实感,甚至反向驯化人类思维时,我们必须警惕。
“去AI味儿运动”本质上是人类对语言多样性、思想原创性和批判性思维的自我捍卫。在生成式AI已然势不可挡地融入人类社会方方面面的今天,人类本身也必须随之进步,锻造出AI时代亟需的核心竞争力:
- 掌握识破大模型幻觉的能力: 对AI给出的“完美答案”保持审慎,习惯性对关键信息进行交叉检索,并在权威数据库中验证,避免过度依赖 1。
- 掌握对大模型逻辑的压力测试能力: 运用反例辩驳、提问溯源(如“该理论首见于哪年期刊?”)等方式,打破模型“逻辑暴力”的限制,获得经得起推敲的内容 1。
- 掌握对大模型输出内容的感知能力: 将AI产出视为“初稿”,敏感识别“AI黑话”和“连接词密集区”,警惕模式化表达 1。
吉利汽车在重构车载语音系统时,刻意保留5%的“非优化回答”,那些稍显笨拙却充满人性试探的表达,成为人机交互中最动人的部分 1。这启发我们,真正的智慧不在芯片中诞生,而在于人类与AI的创造性摩擦中迸发。AI应是思想的磨刀石,而非替代品。只有让AI成为激发人类深层思考和批判性判断的催化剂,而非简单的信息加工机器,方能在算法洪流中保留人类思维的灯塔,保存思想的野性。
引用
-
DeepSeek流量暴跌,要凉了?是它幻觉太严重还是它在闷声发大财? · 36氪 · 混沌学园(2025/7/28)· 检索日期2025/7/29 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
DeepSeek与AI幻觉 · 10ms.edu.cn · (无作者)(2025/7/29)· 检索日期2025/7/29 ↩︎
-
DeepSeek-R1超高幻觉率解析:为何大模型总“胡说八道”? · 华尔街见闻 · (无作者)(2025/7/29)· 检索日期2025/7/29 ↩︎ ↩︎
-
AI虚假语料污染大模型 · 东方财富 · (无作者)(2025/2/25)· 检索日期2025/7/29 ↩︎