代理人工智能、MCP和大型语言模型有什么区别?
智能体 AI(Agentic AI)是当下最新的热门方向,它建立在支撑 ChatGPT、Perplexity、Copilot 等聊天机器人的大语言模型(LLM) 基础之上。聊天机器人通常接收文本提示并以文本回应,部分可以生成图像甚至视频。它们大多是独立的交互系统,但想要在聊天环境之外真正执行操作,就需要依靠 智能体 AI。
智能体 AI 将大语言模型与现实世界相连
总体而言,智能体 AI 通过多种接口和协议将 AI 模型与外部世界连接起来(见图)。目前主流的协议之一是模型上下文协议。该协议由 Anthropic 开发,现已被大多数 AI 公司采用的开源协议。
图:智能体 AI 可以通过多种方式将大语言模型与第三方工具连接起来 智能体 AI 可以通过多种方式将 LLM 与第三方工具连接,从使用 API、设备驱动到实现模型上下文协议。
最早接触到的 “ MCP ”,是宝来公司(Burroughs)大型机系统上的主控程序(Master Control Program),它和 AI 完全无关,只是当时相当先进的操作系统。电影《电子世界争霸战》(Tron)里也把 MCP 塑造成反派角色,只不过那是一个失控且极其强大的程序。
不过话说回到 AI 领域。
许多不同平台都可以运行一个或多个 LLM,并通过 MCP 实现与第三方服务的双向访问。这些平台为 LLM 提供通用的 MCP 客户端,进而可以与任何提供文件操作、邮件处理、数据库访问等服务的 MCP 服务器交互。这让 LLM 能够获取并利用数据,用于后续计算。
智能体 AI 并不局限于使用 MCP,在嵌入式领域尤其如此。当需要调用第三方服务,而用户无法控制或不想维护这些 MCP 时,MCP 会非常方便,即便它们可能只开放邮件等自有数据访问权限。
另一方面,嵌入式开发者通常能掌控整个系统,此时应用程序编程接口(API) 会是更高效、更可控的协议。API 也可被其他应用调用,或为 LLM 提供访问这些应用的通道。
使用 API 与 MCP 的主要区别在于实现功能所需的细节复杂度。MCP 服务器允许智能体 AI 平台自动发现其能力,而 API 则需要程序员在系统之间编写驱动程序。另一个区别是,API 通常是无状态的,协议延迟更低;而 MCP 会维持会话级别的上下文。
尽管有些人认为智能体 AI 具有自主能动性,但任何系统都需要被启动。不过启动之后它便可以自主持续运行,这一点利弊兼具。
警惕智能体 AI 与 MCP
聊天机器人、智能体 AI 系统和 MCP 能实现许多惊人的功能,因此很多人一拥而上,有时反而招致损失。智能体 AI 和 MCP 本身已是复杂系统,在其之上构建应用会让复杂度进一步提升。再加上安全、AI 可信度,以及 “提示词编程” 本身的模糊性等问题,在将个人或公司数据与资源的控制权交给它们之前,你或许需要更加谨慎。
智能体 AI 堪称黑客的理想目标。AI 正被用于检测和防范系统入侵,可一旦攻击者获得系统访问权限,系统内的工具就可能被用来颠覆和操控系统。你可能会不小心让智能体损坏所有文件,而黑客则会故意这么做。
我们暂且不讨论 LLM 本身的输出质量问题,但长期运行的 LLM 确实存在一些隐患。智能体 AI 系统往往需要长时间甚至不间断运行,目前我们姑且假设这不是主要问题。
智能体 AI 和 MCP 的问题在于,它们的设计通常优先实现功能,安全与可靠性等问题则居于次要位置。这种思路正在转变,但这些问题本身就极具挑战性。即使用智能手机应用,很少有人会关注权限问题,更不用说放任智能体系统随意访问个人或公司数据。
挑战之一在于,AI 可以借助 MCP 操纵数据,并几乎能将其传输到任何地方。事实上,用户几乎需要一个智能体 AI 系统去监管另一个。
很多人忽视的一点是可重复性与可维护性。传统应用通常是固定的,只会按固定周期更新;若无改动,系统会长期保持相同的运行方式。但 AI 系统并非如此,底层的智能体和接口会不断变化。以提示词形式存在的规则或建议可能会产生不同结果,因为 LLM 底层更新升级后,对提示词的解读也会发生变化。
使用你自己的智能体 AI
智能体 AI 正出现在各类应用中,例如微软将其 Copilot 系统集成到用户和系统应用里。目前来看,这类系统通常需要手动启动,这其实是件好事。
有一个名为 OpenClaw 的开源系统,它可以接入 MCP,甚至能充当 MCP 服务器。它可以调用你的聊天应用,甚至发送邮件,如果你允许,还能操作你的文件。
OpenClaw 可在 Linux、Windows 和 MacOS 上运行,提供基于网页的控制面板界面用于控制和输入提示词。你可以创建多个智能体,使用不同的 AI 模型和 MCP。还有其他类似 OpenClaw 的框架,包括 LangChain 和 CrewAI Studio。
理论上你可以在 PC 上安装任意这类系统,但我强烈建议先在沙箱环境中试用 OpenClaw 等系统,再开放过多权限。遗憾的是,大多数人不知道如何搭建虚拟机,也没有多余的独立 PC 可供使用。
不过,嵌入式开发者往往具备这类专业能力,也能理解相关问题,包括只需添加几个 MCP 就会迅速攀升的系统复杂度。许多框架是开源的,部分闭源方案也提供免费使用权限。但对于后者,长期来看成本可能相当可观。即便是免费软件,使用起来也会有隐性代价。
各大厂商大力建设巨型 AI 数据中心,并不是为了提供免费的智能体 AI,而是为了付费 AI 服务。这听起来利润丰厚,对用户而言也可能意味着高昂开销。你可能甚至需要一个 LLM 来帮你判断使用这些系统能否盈利。
在深入研究智能体 AI 时,请务必关注成本、安全与可信度等问题。