AI模型的“互联网”

人工智能体可以互相交谈——但它们还不能一起思考

人工智能体现在已经可以互相交谈了——但它们还不能理解对方试图做什么。这正是思科Outshift团队试图通过一种名为“认知互联网”的新架构方法来解决的问题。

这个差距是实际存在的:像MCP和A2A这样的协议允许智能体交换消息和识别工具,但它们不共享意图或上下文。没有这些,多智能体系统就会在协调上消耗大量周期,并且无法将它们学到的东西结合起来。

Outshift总经理兼高级副总裁维乔伊·潘迪告诉VentureBeat:“关键是,我们可以发送消息,但智能体彼此不理解,所以没有基础、协商、协调或共同意图。”

实际影响:

试想一位患者预约专科医生。如果仅使用MCP,一个症状评估智能体会将一个诊断代码传递给一个排程智能体,后者负责查找可用的预约。一个保险智能体验证保险覆盖范围。一个药房智能体检查药品库存。

每个智能体都完成了自己的任务,但它们都没有一起就患者的需求进行推理。药房智能体可能会推荐一种与患者病史冲突的药物——这是症状评估智能体拥有但未传递的信息,因为“潜在的药物相互作用”不在其职责范围内。排程智能体预订了最近的可用预约,却不知道保险智能体发现在另一个机构有更好的保险覆盖。

它们连接在一起,但在目标上并未对齐:为这位患者的具体情况找到正确的诊疗方案。

现有协议的局限性:

当前的协议处理的是智能体通信的机制——MCP、A2A以及Outshift已捐赠给Linux基金会的AGNTCY,它们让智能体能够发现工具和交换消息。但这些都是潘迪所说的“连接和标识层”上运作。它们处理的是语法,而非语义。

缺失的部分是共享的上下文和意图。一个完成任务的智能体知道自己在做什么以及为什么这么做,但这种推理在其交接给另一个智能体时并没有传递。每个智能体独立地解释目标,这意味着协调需要不断澄清,而学到的见解则被孤立起来。

通往协作的路径:

根据Outshift的说法,要让智能体从通信走向协作,它们需要共享三样东西:跨数据集的模式识别、行动之间的因果关系,以及明确的目标状态。

Outshift在一篇论文中表示:“没有共享的意图和共享的上下文,人工智能体在语义上仍然是孤立的。它们各自有能力,但目标被不同地解释;协调消耗了大量周期,没有任何东西能累积起来。一个智能体学到了一些有价值的东西,但多智能体-人类组织中的其他成员仍然要从头开始。”

Outshift表示,行业需要“能够进行语义协作的、开放的、可互操作的企业级智能体系统”,并提出了一种名为“认知互联网”的新架构,其中多智能体环境在一个共享系统内工作。

提出的“认知互联网”架构:

该架构引入了三层:

1. 认知状态协议: 一个位于消息传递协议之上的语义层。智能体不仅共享数据,还共享意图——它们试图完成什么以及为什么。这使得智能体在行动前就能就目标达成一致,而不是事后澄清。

2. 认知结构: 用于构建和维护共享上下文的基础设施。可以把它想象成分布式工作记忆:在智能体交互间持久存在的上下文图,并带有关于共享内容和访问权限的策略控制。系统设计者可以为其用例定义“共同理解”的具体形态。

3. 认知引擎: 两种类型的能力。 加速器 让智能体汇集见解并累积学习——一个智能体的发现可供其他解决相关问题的智能体使用。 防护栏 强制执行合规边界,确保共享推理不会违反监管或政策约束。

Outshift将该框架定位为行动的号召,而非成品。该公司正在努力实现,但强调语义智能体协作需要全行业的协调——就像早期互联网协议需要获得支持才能成为标准一样。Outshift正在编写代码、发布规范并进行围绕“认知互联网”的研究。它希望很快能有一个协议演示。

前沿AI公司Humans&的联合创始人、斯坦福大学计算机科学教授诺亚·古德曼在VentureBeat于旧金山举办的AI Impact活动上表示,创新发生在“其他人搞清楚该关注哪些人”的时候。同样的动态适用于智能体系统:当单个智能体学习时,如果其他智能体能够识别并利用这些知识,价值就会成倍增长。

对于现在部署多智能体系统的团队来说,实际问题是:你的智能体只是连接在一起,还是它们实际上在为同一个目标而努力?

https://venturebeat.com/infrastructure/ai-agents-can-talk-to-each-other-they-just-cant-think-together-yet

站务

全部专栏