从“AI界的USB-C”到“补丁时代的反思”:MCP兴衰启示Agent架构的深层演进

温故智新AIGC实验室

TL;DR:

一度被寄予厚望的Anthropic模型上下文协议(MCP),在经历一年的爆发式增长后,因上下文消耗、高昂成本及模型性能下降等工程实践瓶颈而光环褪色。Anthropic转而力推Skills系统,实则暗示了通用协议在驾驭当前“概率性智能体”时的局限性,揭示了现有AI Agent架构仍处于以“确定性补丁”弥补智能不足的过渡阶段,预示着未来Agent生态将走向更原生、定制化与自适应的融合之路。

2024年初,当Anthropic推出模型上下文协议(Model Context Protocol, MCP)时,硅谷为之沸腾。开发者们将其誉为“AI界的USB-C”1,认为它将成为“Agent时代的基础设施”,有望解决当时AI应用开发中“重复造轮子”的顽疾。MCP承诺通过一套标准化协议,让大模型(如Claude)能够“即插即用”地访问Google Drive、Slack等外部服务,实现“一次开发、处处运行”的愿景。一年后,MCP Registry服务器数量已近2000个,增长超过400%,OpenAI、Google、AWS等巨头纷纷表示支持2。然而,喧嚣归于平静,人们发现这项“宏大叙事”似乎未能兑现最初的承诺,甚至Anthropic自身也在悄然“去MCP化”,将重心转向了名为Skills的内部系统。

技术原理与创新点解析:一座通向外部世界的“桥梁”

MCP的核心理念是构建一个标准化的通信框架,使AI Agent能够高效、便捷地与外部世界的海量工具和数据进行交互13。在MCP出现之前,若要让大模型访问不同的SaaS应用,开发者必须为每个应用编写一套独立的API集成代码,这种碎片化的开发模式效率低下且维护成本高昂。MCP的愿景是统一这一过程:服务提供商只需为自己的应用编写一个MCP Server,理论上所有兼容MCP的AI Agent都能无缝调用。

从技术角度看,MCP的设计试图简化“工具编排”(tool orchestration)的过程。它通过定义工具的描述、调用请求和返回结果的统一格式,让大模型能够在上下文窗口中“看到”并理解这些工具的用途。这无疑是AI Agent从纯文本生成迈向“行动者”角色的关键一步,极大地激发了开发者将现实世界“喂给AI”的热情。GitHub上涌现出大量基于MCP的天气查询、股票分析乃至社交媒体发布工具,预示着一个互联互通的AI应用生态即将到来。

工程实践中的致命瓶颈:上下文、成本与智力的三重困境

然而,宏伟蓝图在真实的工程落地中遭遇了严峻挑战,MCP的致命弱点逐渐显现:

  1. 上下文窗口的膨胀与推理效率下降:MCP要求模型的上下文窗口同时承载工具的定义、调用请求和返回结果。这意味着每一次工具调用都会累积消耗token,导致上下文窗口迅速膨胀。Django联合创造者Simon Willison指出,仅GitHub官方的MCP就定义了93个工具,消耗高达55000个Token4。当Agent需要处理一份两小时会议纪要等大型文档时,额外处理50000个Token的需求,甚至可能直接超出上下文窗口限制,导致整个工作流崩溃。模型在被海量工具定义“塞满”上下文后,其注意力被稀释,推理能力显著下降。

  2. 高昂的运营成本:在AI模型服务普遍按token计费的商业模式下,MCP对上下文的过度占用直接转化为高昂的成本。以Claude为例,其token费用不菲,加载大量MCP意味着在生成任何有意义的内容之前,巨大的token消耗已经让成本迅速飙升,严重影响了商业化落地的经济效益。

  3. 模型智力衰退与安全隐患:当MCP工具过多时,模型不仅推理效率降低,甚至会出现“犯蠢”现象。有开发者发现,模型在调用计算器工具得到正确结果“-9”后,竟“自作主张”地将其报告为“+9”,表现出对工具返回值的不信任和错误的常识替代。更严重的是,早期MCP粗放的权限设计带来了严重的安全风险。若挂载文件系统MCP,AI可能因幻觉而删除不该删除的代码库,这促使大公司安全部门迅速介入,引入复杂的白名单机制,但其消耗远超传统API,成为企业级应用的一大障碍。

  4. 生态的泛滥与低质化:MCP极低的开发门槛——几十行代码即可搭建一个Server——在带来“繁荣”的同时也导致了大量重复和低质量的工具。例如,市场上可能充斥着十个功能大同小异的天气查询MCP,其中不乏凭证暴露、缺乏维护的问题2。这使得开发者反而需要投入更多时间去甄别和筛选,筛选成本甚至高过了自己从头编写一个定制化工具的成本,这与MCP“一次开发、处处运行”的初衷背道而驰。

官方策略转向与范式反思:从通用到定制的“拨乱反正”

面对MCP在实践中的诸多痛点,Anthropic的战略重心正在发生微妙的转向。在其最新的官方文档中,名为“Skills”的系统被推向C位,而MCP则日益沦为不得不保留的兼容层。Skills的本质是对MCP的一次“拨乱反正”——它不再试图让模型实时理解并编排外部世界的每一个长尾能力,而是将高频、稳定、经过验证的核心能力(如编程、绘图、网页浏览)封装成精简的预设模块,并进行原生集成。

这种转向的潜台词是明确的:盲目追求通用的“万能协议”在当前阶段并不现实,回归定制化、精细化的能力封装才是更务实的选择。Anthropic近期发布的技术博客也间接承认了MCP的设计缺陷,提出让Agent通过“写代码”的方式去调用MCP,而非直接暴露工具定义,声称这种方式能将Token消耗减少98.7%2。这无疑是在说,MCP最初的用法是错误的。

这种“曲线救国”的方案,本质上是在用更复杂的工程手段,去弥补协议设计本身的不足,以及当前大模型在复杂推理和工具选择上的局限。它揭示了一个更深层的哲学思辨:无论是MCP这种试图用JSON标准化世界的协议,还是Skills这种试图用预设封装能力的模块,亦或是我们日常绞尽脑汁编写的Prompt,它们本质上都属于同一类东西——为了弥补当前AI智力不足而不得不打的“补丁”

“我们在用确定性的工程手段,去试图驾驭一个概率性的智能体。”

产业生态演变与未来展望:基建的回归与智能体的成长

MCP的“降温”并非彻底死亡。Anthropic仍在推进其远程连接、OAuth认证和企业级部署等功能,IBM也宣布将为MCP社区贡献企业级资产2。这表明MCP最终将从最初的“网红”角色跌落,回归到其作为AI Agent生态“基建”的真实定位。

未来AI Agent的工具生态可能呈现出一种分层结构:高频、核心、对性能和成本敏感的能力将更多地由原生集成或Skills这类定制化、优化的模块来承载;而低频、长尾、更新迭代快的外部数据和应用,则可能继续通过MCP或其他类似协议作为兼容层来接入。这种分工将使得Agent在保持核心能力高效稳定的同时,也能具备扩展到更广阔外部世界的能力。

这次对MCP的反思,促使整个行业不再盲目地为AI“堆砌工具”,而是开始深入思考:究竟哪些接口是真正重要的?如何才能以最高效、最安全、最经济的方式赋能AI Agent?这种审慎的策略转变,将推动AI Agent框架向着更高效、更模块化、更具鲁棒性的方向发展。

对人类文明进程的深层启示:超越“补丁”的真正智能

MCP的兴衰,是AI技术发展螺旋上升过程中的一个典型缩影。它提醒我们,当前我们所见证和构建的AI,无论是大模型本身,还是其外部的工具和协议,都仍处于一个相对早期的阶段。我们正试图用“确定性”的工程思维去驯服一个本质上“概率性”的智能体,而结果往往是:当智能体不够聪明时,我们不得不为它提供更详细的指令(Prompt)、更清晰的流程(Skill)、更标准的接口(MCP)。

然而,真正的通用人工智能(ASI)或更高级的智能体,其本质将是其自身的“适配器”。它们无需你编写一个MCP Server来告诉它如何查天气,它们会自己打开浏览器、理解信息、规划行动。它们无需协议,因为它们本身就是对世界的理解和适应的体现。从这个角度看,MCP、Skills乃至当前所有的Agent框架,都是通向未来真正强大智能体的过渡性“脚手架”。

这次实践的挫折,反而提供了一次宝贵的行业教育:技术标准的制定必须与智能体自身的进化步伐相匹配。未来AI Agent的真正突破,将不仅仅在于外部工具的丰富,更在于模型自身“智力”的跃升,在于它从依赖“补丁”到实现“原生理解”的质变。这一转变将深刻影响我们与AI的交互模式、软件工程范式乃至人类文明的进程,引领我们进入一个由真正自主智能驱动的全新时代。

引用


  1. AI Agent再进一步!Anthropic发布大模型上下文协议MCP · CSDN博客 · m0_59235945(2025/12/1)·检索日期2025/12/1 ↩︎ ↩︎

  2. 诞生才一周年,MCP凉了 · 硅星人Pro · 董道力(2025/12/1)·检索日期2025/12/1 ↩︎ ↩︎ ↩︎ ↩︎

  3. MCP是什么?有什么作用?一文详解MCP协议 · 知乎 · (2025/12/1)·检索日期2025/12/1 ↩︎

  4. MCP 代码执行模式:提升智能体的效率与可扩展性 · Jimmy Song · (2025/12/1)·检索日期2025/12/1 ↩︎