登录

你的「龙虾」还好用吗?人大林衍凯教授:OpenClaw就像早期Linux,真正的竞争才刚开始


速读:近日,端侧智能北京市重点实验室关于智能体的创新研讨会在清华科技园召开,8位产学嘉宾发言,从底层技术问题、技术演变趋势、端云协同范式、技术背后的安全问题、Agent管理实践等维度切入,研讨的主题围绕OpenClaw背后的技术逻辑以及未来的发展趋势展开。 中国人民大学副教授林衍凯在研讨会上做了《从OpenClaw看智能体技术发展趋势》的报告,回答了三个更本质的问题:第一,当前的智能体技术究竟走到了哪一步? 他从系统架构、交互执行方式,到基座模型与多智能体协同,进行分层拆解,还原技术的真实状态,提出一个有些“反直觉”的判断——OpenClaw并不是底层算法的突破,而是通过工程化整合让大模型能力跨过“可用阈值”,使智能体真正走向可用。 它更像一个智能体操作系统的早期雏形,在统一模型、工具与交互方式上重新定义了AI的使用范式。 在这里我给大家一个暴论:从AI、大模型技术创新的角度来看,OpenClaw其实并没有太多的创新,是已有技术的使用,它不训练模型,不改进推理算法,也不做底层的工具学习。
2026年03月30日 14:51

机器之心Pro

过去数月,AI 领域很难绕开一个名字 ——OpenClaw。这个项目在极短时间内获得了爆发式关注:数十万星标、惊人的 Token 消耗,以及几乎所有大厂的快速跟进。从表面上看,它像是又一个现象级 AI 产品;但如果进一步审视,一个更值得思考的问题随之浮现 ——OpenClaw 的出现,究竟意味着什么?它真的是一次技术突破,还是某种更深层变化的信号?

近日,端侧智能北京市重点实验室关于智能体的创新研讨会在清华科技园召开,8 位产学嘉宾发言,从底层技术问题、技术演变趋势、端云协同范式、技术背后的安全问题、Agent 管理实践等维度切入,研讨的主题围绕 OpenClaw 背后的技术逻辑以及未来的发展趋势展开。

中国人民大学副教授林衍凯在研讨会上做了《从 OpenClaw 看智能体技术发展趋势》的报告,回答了三个更本质的问题:第一,当前的智能体技术究竟走到了哪一步?第二,它真正的核心瓶颈在哪里?第三,未来一到三年,这条技术路径会如何演进?

他从系统架构、交互执行方式,到基座模型与多智能体协同,进行分层拆解,还原技术的真实状态,提出一个有些 “反直觉” 的判断 ——OpenClaw 并不是底层算法的突破,而是通过工程化整合让大模型能力跨过 “可用阈值”,使智能体真正走向可用。它更像一个智能体操作系统的早期雏形,在统一模型、工具与交互方式上重新定义了 AI 的使用范式。其爆发本质上是模型能力与工程体系在同一时间点发生共振的结果。

与此同时,林衍凯给出对核心瓶颈的系统性理解,指出 OpenClaw 也集中暴露了当前智能体在可靠性、长任务执行、Token 成本和记忆体系和自主进化上的核心瓶颈。

最后,他指出,智能体未来发展的关键不再只是模型变强,而是通过端云协同、协议标准化和多智能体系统,实现从单点能力向系统能力的跃迁。

以下是演讲全文:

今天我想借 OpenClaw 这个最近非常火的智能体项目和大家探讨一个问题,目前的智能体技术到底走到了哪一步,它的核心瓶颈是什么?下一步我们会往哪些方面走?我尽量少讲一些产品,多讲一些技术,里面有我的一些思考。

首先看一些数据,OpenClaw 当时轰动之后,24 小时拿到了九千 star,两个月超过了 27 万星标,甚至超越了 Linux,成为了整个历史上星标最多的项目。这是我截的 OpenClaw 在 OpenRouter 上的 Token 消耗量,一周就消耗了 4.73T,整个消耗量比后面的所有加起来都多。与此同时,国内几乎所有的大厂都在跟进,今天微信也接入了龙虾,非常非常火。很多城市也针对 OpenClaw 出了一些政策。

我今天不是想讨论它火不火,我想讨论三个偏技术的问题: 它为什么在今天这个时间点引爆?从技术上到底有没有创新?从它的角度看目前有哪些需要去解决的问题?

OpenClaw 爆火的本质原因是 “可用性革命”

整个 OpenClaw 从项目启动以来,到突破 20 万星标到创始人加入 OpenAI,其实也就三四个月,从它火爆到现在其实也就是一个月的时间。为什么它会这么火呢?从我个人角度,是因为它极大地降低了用户的使用门槛。它不同于传统的聊天机器人,而是一个能够自主执行任务的 AI 智能体 。虽然大模型出现后就有了 AutoGPT、XAgent 等类似事情,但 OpenClaw 真正让普通人也能轻松上手使用了。

在这里我给大家一个暴论: 从 AI、大模型技术创新的角度来看,OpenClaw 其实并没有太多的创新,是已有技术的使用 ,它不训练模型,不改进推理算法,也不做底层的工具学习。它所做的,是 IM 通讯平台的接入、本地部署架构、分层记忆以及 Gateway 的标准化 。这些都是非常优秀的软件工程设计,但在核心算法本质上并没有突破 。

我们可以看到,系统里真正干活的、为我们提供良好体验的,其实是它接入的 Claude Opus 4.6 或 GPT-5.4 等基座模型 。我认为,OpenClaw 对于大模型的意义,有点类似于浏览器之于互联网 —— 它本身不创造内容,但它重新定义了用户的交互方式,让非技术背景的人也能顺畅地将大模型应用到工作中 。

正因为 OpenClaw 在底层算法上没有做过多改变,它反而成为了一个非常好的技术分析样本 。它的成功可以向我们展示哪些技术已经相对成熟(例如基座模型的工具调用和执行能力),同时也能暴露出当前还缺失哪些技术(例如系统的可靠性、记忆模型的迁移能力、以及端云协同目前的不成熟)。

我今天用 OpenClaw 为切入点,尝试系统性地审视整个智能体技术上,不同层的技术现状是什么,核心瓶颈是什么 ,以及我认为大家可以做的一些研究方向。

来看一组统计数据,这是大模型出现以来, 智能体在 50% 成功率的情况下,它可以自主完成任务的长度 ,大模型出来之后,倍增时间约 7 个月,过去一两年的倍增时间加速到约 4 个月。右边的图是我刚才提到的 Claude Opus4.6、GPT-5.4,基本上都是在代码能力、工具调用能力方面相比于前一版本有了质的飞跃。

OpenClaw 是智能体操作系统的雏形

OpenClaw 的总体技术架构非常简单清晰,从底层的系统控制到 Agent 循环系统,再到上层的标准化封装和信息流管理,最后接入暴露给用户的各种 channels。为什么大家用起来这么好呢?本身就是它的六大关键技术特征 —— 这个不是我提的,是我在另外一场报告里面听人讲的,总结的非常好:社交接入、本地部署、设备接入、模型生态、技能生态,这些特征使得它对底层模型、各类用户、各种设备以及复杂任务都具备了极强的兼容性 。

从软件工程层面来看,OpenClaw 有三个非常核心的设计 。

第一个是它的 Gateway 系统 ,采取三层的架构,采用分层的形式,使得无论是外部接入的不同设备还是 IM 软件,都可以通过 Gateway 统一路由和调度给智能体层。这样一来,智能体本身就不需要关心用户是通过什么平台在交流,或者外部硬件是什么,只需专注底层 API 和顶层接口的对接即可 。

第二个是它的分层记忆机制 。

OpenClaw 做了一个非常非常简单的记忆机制,它的记忆机制虽然简单,但非常实用。以往我们在 AutoGPT 或是其他智能体模拟系统中也见过类似设计 。 

最底层(L1)是当前会话的上下文,属于短期记忆,当上下文窗口快满时会自动压缩消息,其生命周期随会话结束而终止 。 

第二层(L2)类似于每日笔记或流水账,它会自动读取近两天的日志,并有一个 30 天的衰减周期 。 

在此之上是长期记忆层(L3),它会对底层信息进行总结,长久地提炼出人物信息、偏好和经验教训 。

最顶层(L4)则是基于文件的语义智能召回,其核心目的是实现个性化 。通过这套搭建在大模型之上的智能体记忆架构,系统能够做到 “越用越懂你” 、“越用效果越好”

第三块是兼容了 Claude 的 skill 生态 。大家可以看到是三层加载,第一层通过名字、描述帮助模型快速了解 Skill 的功能,实现 skill 的快速检索;第二层是它详细的工作流程,这使得模型在面对不同任务时能知道该如何处理,比如我这个 PPT,或者其它事情的大概工作流程是什么。这种 skill 的方法能力能够让智能体去做特别专精尖的任务。最后一层是它的一些相关资源。

以上这三点是我拆解 OpenClaw 后,认为最有工程价值的部分。

讲完了整个 OpenClaw 的整体架构之后,我从我个人角度提出一个自己的猜想或者判断, 其实我觉得 OpenClaw 不应该看作是一款软件或者说所谓的一款应用,而是未来智能体操作系统的早期原型。

我看到一篇非常有趣的文章,里面提到了正如 Linux 让所有的硬件和软件在同样一套标准下去运行,OpenClaw 它其实现在尝试在做的就是 让所有的 AI 模型、消息平台和所有的工具都在同样一套标准下运行,这正是 OS 该干的事 。

它对上提供统一的抽象,去屏蔽不同大模型的 API 的差异;向下去管理资源,比如管理 skill 插件,管理消息通道;而在中间通过网关去提供调度。它的四层架构 ——LLM 抽象层、Agent 循环、运行时、Gateway—— 与操作系统的经典分层高度对应。

我最近也经常跟人讨论,整个 OpenClaw 的代码其实缺乏一个非常强的团队去维护,随着大家大量用 AI 生成代码去修改维护它,它现在的状态像早期的 Linux 非常粗糙的状态一样,目前整个代码非常臃肿,甚至已经是一个人不可 review 的状态,整个架构也没有成熟。我觉得这也是它的创始人加入 OpenAI 的意图之一,他希望借助大公司的力量完成目前的原型和产品级 OS 的重构。

目前 OpenClaw 只解决了一个人在一台机器上运行一个 Agent 的问题,未来所有端侧设备变成了 Agent,未来的需求是几百个 Agent 在一个分布式的环境里去协同工作, 这些需要线程管理,需要服务发现,需要行为审计,这些目前 OpenClaw 还没有。这也是我们为什么看到目前的整个生态竞争同时在框架层、协议层,以及未来会出现的编排层展开。可以说, 将来的模型工具和应用必须适配这样的框架和协议才能够有效使用。

我去年也发了一些智能体模型,我觉得反响不如我的预期。原因是什么呢?我自己都不愿意用它,第一它的能力还没有达到像 Claude 这样,我自己写 Code 的时候,我用 Claude。第二个,我当时发布的时候,即使是一些比较 Geek 的使用者,能够自己给我们的模型配 API,还是会倾向于用 ollama 去推理,可能觉得 ollama 已经是一个非常好的框架。

但是智能体有自己的一套运行框架,我们的模型得在这套我们设计的框架下才能效果比较 ok 的跑起来。这就意味着以后有了 OpenClaw,用户就会直接用 OpenClaw 去使用你的模型。试一下不好,他就会觉得你发布的智能体模型不好。这件事情非常重要,如果之后有了这样一个东西之后,也许是 OpenClaw,也许是基于 OpenClaw 的新的东西,或者另外的东西,我们的模型就必须去主动适配它,就像我们移动时代的 APP,必须适配 IOS 以及安卓一样,这个也是我们要做的事情。

生态竞争焦点:框架、协议与 Agent-Native 软件

因此,从 OS 层面,它的生态竞争其实已经开始了。从 OS 层面,目前有三条路线。

第一条路线是目前的 OpenClaw 路线,主打开源、本地优先、IM 驱动,优势是生态开放、隐私可控,劣势是安全问题突出;

第二条是 Anthropic 的 Claude Code 路线,通过 CLI 命令行界面运行,使用内置的多智能体协作,深度集成其提出的 MCP 协议,更偏向开发者和技术用户,在 Coding 上的优势非常明显;

第三条是 OpenAI 的路线,直接将能力集成在 ChatGPT 中触达消费者。

同时在协议层面,大家也在争,包括 MCP、A2A、IOA 协议,协议决定了谁主导这个生态的话语权,未来大家就得跟着它干。对于我们做研究的人员来说,跟我刚才说的一样,未来模型的竞争维度必须从跑分高转向用起来好。这使得工具使用、结构化输出、长上下文、推理能力正从原来的加分项变成硬性要求,如果做不到这些的话,就没有办法在 OpenClaw 这样的框架下跑起来,大家就不会用你。

主题:智能体|一个|问题|核心瓶颈