自主智能体AI、MCP与大语言模型有何区别?
自主人工智能是依托 大语言模型 (LLM)兴起的最新热点,ChatGPT、Perplexity、Copilot 等聊天机器人均由 大语言模型 驱动。这类聊天机器人通常接收文本提示并给出相应回复,部分还能生成图像甚至视频。它们大多是可交互的独立系统,但要在聊天环境之外完成实际任务,就需要依靠 自主智能体 AI 。
自主智能体 AI :将 大语言模型 与现实世界相连
总体而言, 自主智能体 AI 通过多种接口与协议,把 AI 模型与外部世界连接起来(见附图)。目前主流协议之一是 模型上下文协议 。该协议由 Anthropic 公司开发,现已被多数 AI 企业采用。
自主智能体 AI 可通过多种方式将大语言模型与第三方工具对接,从调用 API、设备驱动,到搭载模型上下文协议均可实现。
我最早接触的 “ MCP ”,是宝来公司(Burroughs)大型机系统中的 主控制程序(Master Control Program) ,它和 AI 毫无关系,只是当时十分先进的操作系统。这算是个有趣的巧合,因为我早年曾在宝来工作,还和这套 MCP 打过交道。电影《电子世界争霸战》(Tron)里也把 MCP 塑造成了反派角色,只不过片中它是一个失控的强力程序。
言归正传,回到 AI 领域。
各类平台可运行一个或多个大语言模型,并通过 MCP 实现与第三方服务的双向互通。这些平台为大语言模型提供通用 MCP 客户端,进而可与任意 MCP 服务器交互,执行文件操作、邮件处理、数据库访问等任务,让大语言模型能够获取并使用数据用于后续计算。
自主智能体 AI 并非只能使用 MCP,在嵌入式领域尤其如此。当需要调用第三方服务,而用户无法掌控或不想维护相关 MCP 时,MCP 会非常便捷,即便这些服务可访问邮件等用户自有数据。
而嵌入式开发者通常能掌控整个系统,此时应用程序接口(API)是更高效、可控的协议,也可供其他应用调用,或为大语言模型提供对接其他应用的途径。
使用 API 与 MCP 的核心区别在于实现功能所需的细节复杂度:MCP 服务器可让自主智能体 AI 平台自动识别其功能,而 API 则需要程序员在系统间编写驱动程序。此外,API 一般是无状态协议,延迟更低;MCP 则会保留会话级上下文。
尽管有人认为自主智能体 AI 具备自主能动性,但所有系统都需要被启动,之后才能自主运行 —— 这一点利弊兼具。
警惕自主智能体 AI 与 MCP 的潜在风险
聊天机器人、自主智能体 AI 系统与 MCP 确实能实现诸多强大功能,因此大量从业者纷纷入局,有时也因此蒙受损失。自主智能体 AI 与 MCP 本身已是复杂系统,在此基础上开发只会更复杂。再加上安全、AI 可信度、“提示词编程” 不精确等问题,在将个人或企业数据与资源的控制权交给这类系统前,需要更加谨慎。
自主智能体 AI 堪称黑客的理想目标。AI 虽被用于检测和防范系统入侵,但一旦攻击者攻入系统,系统内的工具就可能被用来破坏和操控系统。你可能无意间指令智能体损坏所有文件,而黑客会刻意这么做。
本文暂不讨论大语言模型的质量问题,但长期运行的大语言模型本身存在隐患,而自主智能体 AI 系统往往需要长时间甚至不间断运行。目前我们暂且假设这不是主要问题。
自主智能体 AI 与 MCP 的核心问题在于,设计通常优先考虑功能,安全、可靠性等问题被置于次要位置。这种设计思路正在转变,但相关问题本身仍极具挑战性。多数用户即便使用手机应用也很少关注权限问题,更不用说放任自主智能体系统随意访问个人或企业数据。
难点之一在于,AI 可借助 MCP 操控数据,并将其传输至几乎任何位置,用户甚至需要一套自主智能体 AI 系统来监管另一套。
很多人忽视了 可重复性与可维护性 。传统应用通常按固定周期更新,无改动时可稳定保持原有运行状态;但 AI 系统并非如此,底层智能体与接口会持续变化,提示词形式的规则或指令可能产生不同结果 —— 这是因为大语言模型的底层更新升级,会导致语义解读发生变化。
搭建属于你的自主智能体 AI
自主智能体 AI 正逐步融入各类应用,例如微软将 Copilot 系统整合到用户应用与系统应用中。目前这类系统通常需要手动启动,这反而是件好事。
开源项目 OpenClaw 就是典型代表。它可对接 MCP,甚至自身可作为 MCP 服务器运行,能够调用聊天应用、发送邮件,获得权限后还可操作本地文件。
OpenClaw 支持 Linux、Windows、macOS 系统,提供网页端控制面板用于操控与输入提示词,可创建多个智能体,调用不同 AI 模型与 MCP。同类框架还包括 LangChain、CrewAI Studio。
理论上你可以在个人电脑上安装这类系统,但我强烈建议先在沙箱环境中测试 OpenClaw 等工具,再开放过多权限。遗憾的是,多数用户并不了解如何搭建虚拟机,也没有闲置的隔离电脑可用。
而嵌入式开发者通常具备相关技术能力,也能理解其中风险 —— 哪怕只增加几个 MCP,系统复杂度也会迅速攀升。这类框架大多开源,部分闭源方案也提供免费使用权限,但长期来看后者成本可能十分高昂。即便是免费软件,使用过程中也会产生隐性成本。
各大企业大力建设超大规模 AI 数据中心,目的并非提供免费的自主智能体 AI,而是推出付费 AI 服务。这一市场看似利润丰厚,对用户而言也可能意味着高昂开销。你甚至可能需要一个大语言模型来帮你判断,使用这些系统能否盈利。