谷歌将Agent2Agent (A2A) 协议捐赠给Linux基金会,旨在建立开放、厂商中立的AI智能体通信标准,以解决当前智能体间的“孤岛化”问题。此举标志着AI互操作性进入新阶段,但与Anthropic的MCP和IBM的ACP等现有协议的竞合关系,以及企业在实际应用中的ROI衡量挑战,共同构成了智能体生态发展的复杂图景。
在人工智能领域,互操作性长期以来都是一个难以逾越的障碍。随着智能体(AI Agents)技术的迅速崛起,不同厂商、不同框架下的智能体之间如何有效沟通与协作,成为决定其潜能释放的关键。正是在这一背景下,科技巨头谷歌采取了一项引人注目的举措:将其开发的Agent2Agent (A2A) 协议规范、相关SDK及开发工具捐赠给中立的Linux基金会1。此举旨在推动A2A成为一个开放、社区驱动的互操作标准,从而打破智能体之间的“信息孤岛”。
智能体互操作性的基石:A2A协议的深度解析
谷歌于今年4月首次推出A2A协议,其核心目标是为多样化的AI智能体提供一个统一的通信与协作框架。与以往的集成模式不同,A2A着眼于实现多个智能体之间的顺畅交互,确保通信的安全性、上下文管理,并协助智能体之间协商任务与相互发现。本质上,A2A旨在协调多个专业智能体,使它们能够高效协作,共同完成复杂的任务2。
从技术层面看,A2A定义了一种基于HTTP的通信模型,将每个代理视为可互操作的服务。每个代理通过公开一个名为“代理卡”(Agent Cards)的机器可读JSON描述符,详细说明自身的身份、功能、端点和身份验证要求。这种设计使得智能体能够清晰地了解彼此的能力和通信方式,为构建复杂智能体系统奠定了基础。
谷歌选择将A2A捐赠给Linux基金会,这并非其首次在开源领域的“基本操作”。2015年,谷歌将Kubernetes捐赠给由Linux基金会托管的CNCF,此后Kubernetes在社区的运营下蓬勃发展,成为容器编排领域的事实标准。通过Linux基金会的中立治理模式,谷歌希望确保A2A协议能够保持厂商中立和社区驱动,加速其开发与普及。然而,与Kubernetes这种可以直接“开箱即用”的项目不同,谷歌此次捐赠的仅是协议标准和SDK,这意味着开发者需要自行完成具体的逻辑实现,这无疑为协议的采纳和产品落地带来了额外的开发负担和不确定性。
协议战场:A2A、MCP与ACP的竞合态势
在AI智能体协议的早期阶段,市场并非只有A2A一枝独秀。当前,Anthropic的**模型上下文协议(MCP)**以惊人的速度被业界采纳,包括谷歌和OpenAI在内的主要参与者都已采用,其服务器数量从2月份的500台迅速增长至超过4000台2。MCP的核心作用是标准化大型语言模型(LLM)与外部工具、数据库和API的通信方式,解决了将“M个不同的大模型与N个不同的工具集成在一起”的组合爆炸问题。它为大模型提供了关于外部服务能力和所需数据的清晰上下文,并提出了一个标准的客户端-服务器架构。
谷歌官方将A2A定义为MCP的“补充”,指出MCP旨在将AI连接到工具,而A2A则专注于将AI连接到其他AI。它们共同构成了构建智能体系统的模块化基础。然而,业界对此的解读并非完全一致。有开发者指出,从架构角度看,A2A的运作层面高于MCP,并且可能通过“代理索引”的机制,最终将代理本身解构为可直接调用的标准化工具。这种索引机制,在某种程度上,可能引入类似谷歌广告的竞价模式,这引发了关于其“开放性”的质疑——如果核心索引和排名机制由特定算法或协调器控制,其开放性便值得商榷。
尽管谷歌强调两者互补,但不少开发者仍对A2A和MCP将如何共存感到困惑,甚至认为A2A有能力完成MCP所能做的一切。在这种竞争态势下,A2A需要展示出MCP无法企及的独特优势才能脱颖而出。一个潜在的优势在于A2A基于HTTP协议,可能在客户端集成方面更具优势,其集成难度相对较低。相比之下,MCP的集成复杂性似乎更高,即便同出自Anthropic的Claude桌面端,在MCP发布数月后也未能完全支持其全部功能,这或许侧面印证了A2A作为更易集成方案的可能性。
此外,由IBM提出的**代理通信协议(ACP)**则采用了完全不同的策略2。ACP基于本地优先的代理协调,无需云端,不依赖HTTP和Web发现机制,而是允许智能体在共享运行时内直接查找并相互通信。这种设计使其非常适合带宽有限、需要低延迟(如机器人或边缘设备)、注重隐私或部署在隔离环境(如工厂车间)的场景。ACP并非与A2A直接竞争,而是填补了不同的市场空白,在特定严格控制的环境中,甚至可能因其跳过Web原生协议开销的特性而完全取代A2A。
落地挑战与价值衡量:智能体协议的未来之路
围绕这些智能体协议的讨论,一个更深层次的问题浮现出来:我们真的需要这些协议吗?Y Combinator的普通合伙人Pete Koomen观察到,尽管他们构建了许多AI智能体来帮助公司运营,但这些智能体并未依赖MCP或A2A2。这表明,对于简单的智能体工作流而言,这些复杂的协议可能并非必需。
然而,Andreessen Horowitz的合伙人Yoko Li则持不同观点。她认为,AI模型目前仍未完全成熟,存在遗忘信息、对工具使用感到困惑等问题。因此,像MCP和A2A这样的协议,扮演着“程序层”或“手把手指导”的关键角色,协助智能体及其背后的大模型完成它们各自无法独立完成的复杂任务。谷歌云的应用总监兼A2A共同创造者Miku Jha强调,企业只有在智能体技术像现有企业工具一样可靠时,才会大规模采用。尽管生成式AI令人印象深刻,但其可靠性并非强项,而A2A的初衷正是为了提升这种可靠性2。
然而,智能体应用的投资回报率(ROI)衡量目前面临显著挑战。企业通常通过两种方式利用代理:现代化现有工作流,或启用新的用户交互方式。但如何评估智能体生成内容的质量、是否能转化为切实的成本节约或收入增长,仍然是一个难题。Jha警告说,企业在探索代理技术时,常犯的错误是先选择工具而非清晰定义用例和成功标准。她建议反其道而行之:在对智能体技术进行大量投资之前,应首先明确用例和业务价值意义上的成功标准。
更具挑战性的是,针对智能体驱动系统的监控和衡量机制尚不完善。衡量AI系统提供的“正常运行时间达到几个九”或定义服务级别协议(SLAs)等基本可靠性概念仍处于早期阶段,而评估生成式AI的输出则更为棘手。微软使用NPS(净推荐值)来衡量AI模型的性能,这一点在行业会议上曾引起震惊2。
此外,MCP和A2A等协议在安全性和复杂性方面也带来了新的担忧。MCP的开放工具调用必须经过仔细的沙盒处理,而A2A在智能体之间开放了许多端点,因此身份验证(OAuth、API密钥等)和授权(RBAC、令牌)变得至关重要。
对于开发者而言,真正的问题是,如何在自身的系统中结合这些框架?未来的智能体是否会使用MCP链接工具,再利用A2A跨服务进行协作?以及,他们的大模型是否已为这个新的、更加开放的智能体生态系统做好了准备?Yoko Li也提及,在某些场景中(如AI伴侣),传统的ROI衡量可能失效或根本不适用,因为消费者可能处于一种“以前不知道需要,但现在离不开”的境地。
尽管前路漫漫,目前只有约5%的生成式AI项目转化为盈利产品,但这些智能体协议的出现,无疑将有助于提升智能体的可靠性,从而为企业带来有价值的变革。它们是构建一个真正互联、高效、智能的AI生态系统的关键拼图。
引文
-
谷歌将A2A 捐赠给Linux 基金会,但代码实现还得靠开发者自己?!·雪球·(2023/6/23)·检索日期2024/7/12 https://xueqiu.com/9217191040/339900278 ↩︎
-
What Every AI Engineer Should Know About A2A, MCP, ACP · Elisowski · (2024/7/1)·检索日期2024/7/12 https://medium.com/@elisowski/what-every-ai-engineer-should-know-about-a2a-mcp-acp-8335a210a742 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎