Anthropic联创定下deadline:2028年AI实现自我进化,没有人类了
编辑|杨文、陈陈
AI 很快就能自己改造自己了?
Anthropic 联合创始人 Jack Clark 发帖称,他最近几周阅读了大量公开的 AI 开发数据后,认为到 2028 年底,递归自我改进(recursive self-improvement)发生的概率有 60%。
也就是说,AI 系统可能很快就能自主构建和改进自己,进入自我加速的阶段。

这一观点并非凭空而来 。他看了一堆公开基准,发现 AI 在 AI 研发相关任务上进步非常快。
比如,CORE-Bench 考察 AI 实现他人研究论文的能力,这是 AI 研究中至关重要的一环。

PostTrainBench 则测试强大模型能否自主微调较弱的开源模型以提升性能,这正是 AI 研发任务的一个关键子集。

MLE-Bench 基于真实 Kaggle 竞赛任务,要求构建多样化的机器学习应用程序来解决特定问题。此外,像 SWE-Bench 这样广为人知的编码基准,也展现出类似的进步。

Jack Clark 将这一现象描述为「分形」式的向上向右趋势,即在不同分辨率和尺度上,都能观察到有意义的进展。他认为,AI 正在逐步接近端到端自动化研发的能力,一旦实现,AI 将能够自主构建自己的后继系统,开启自我迭代的循环。
此言论一出,在社交媒体引发不少讨论。
一些人视其为迈向 ASI 和奇点的关键第一步,可能彻底改变科技发展的节奏。

然而,也存在不同声音。
华盛顿大学计算机科学教授 Pedro Domingos 指出,AI 系统早在上世纪 50 年代 LISP 语言发明时就具备了「构建自身」的能力,真正的问题在于能否获得递增回报,而目前还没有明显证据支持这一点。

有网友质疑,从 2027 年到 2028 年,概率一下子增加 30%,这暗示 AI 能力会在 2027 年底前后出现一次突然的重大突破。到底哪一个具体的里程碑或事件,会让 AI 实现递归自我改进的概率在短时间内大幅提升?

还有网友表示,Jack Clark 是 Anthropic 新上任的公关负责人,这正是他们新战略的一部分:我们并非危言耸听者,有大量的论文都印证了我们一直以来警告你们的事情。

Jack Clark 专门在 Import AI 455 这期 newsletter 里写了一篇长文详细阐述。

文章地址:https://importai.substack.com/p/import-ai-455-automating-ai-research?r=1ds20&utm_campaign=post&utm_medium=email&triedRedirect=true
接下来,我们完整看一下这篇文章。
AI 系统即将开始自我构建,这意味着什么?
Clark 表示,他写下这篇文章,是因为在梳理所有公开可获得的信息后,他不得不形成一个并不轻松的判断:到 2028 年底之前,出现无人类参与的 AI 研发的可能性已经相当高,或许超过 60%。
这里所谓的无人类参与的 AI 研发,指的是一种足够强大的 AI 系统:它不仅能辅助人类做研究,还可能自主完成关键研发流程,甚至构建出自己的下一代系统。
在 Clark 看来,这显然是一件大事。
他坦言,自己也很难完全消化这件事的含义。
之所以称这是一个不情愿的判断,是因为它背后的影响过于巨大,让他感到难以把握。Clark 也不确定,整个社会是否已经准备好迎接 AI 研发自动化所带来的深层变化。
他现在相信,人类可能正生活在一个特殊时间点:AI 研究即将被端到端自动化。如果这一刻真的到来,人类就像跨过了卢比孔河,进入一个几乎无法预测的未来。
Clark 表示,这篇文章的目的,是解释他为什么认为,通向完全自动化 AI 研发的起飞正在发生。
他会讨论这一趋势可能带来的一些后果,但文章的大部分篇幅,都会集中在支撑这一判断的证据上。至于更深层的影响,Clark 计划在今年的大部分时间里继续梳理。
从时间点来看,Clark 并不认为这件事会在 2026 年真正发生。但他认为,未来一两年内,我们可能会看到某种模型端到端训练出自己后继者的案例。至少在非前沿模型层面,出现一个概念验证是很有可能的;至于最前沿模型,难度会更高,因为它们成本极其昂贵,也依赖大量人类研究员的高强度工作。
Clark 的判断主要来自公开信息:包括 arXiv、bioRxiv 和 NBER 上的论文,以及前沿 AI 公司已经部署到现实世界中的产品。基于这些信息,他得出一个结论:自动化生产当下 AI 系统所需的各个环节,尤其是 AI 开发中的工程组件,基本已经具备。
如果 scaling 趋势继续延续,我们就应该开始准备面对这样一种情况:模型会变得足够有创造力,不仅能自动改进已知方法,还可能在提出全新研究方向和原创想法方面替代人类研究员,从而自行推动 AI 前沿继续向前发展。
编码奇点:能力随时间的变化
AI 系统是通过软件实现的,而软件由代码构成。
AI 系统已经彻底改变了代码生产方式。这背后有两个相关趋势:一方面,AI 系统越来越擅长编写复杂的真实世界代码;另一方面,AI 系统也越来越擅长在几乎不依赖人类监督的情况下,把许多线性的编码任务串联起来完成,比如先写代码,再进行测试。
体现这一趋势的两个典型例子,是 SWE-Bench 和 METR time horizons plot。
解决真实世界的软件工程问题
SWE-Bench 是一个被广泛使用的编程测试,用来评估 AI 系统解决真实 GitHub issue 的能力。
当 SWE-Bench 在 2023 年底推出时,当时表现最好的模型是 Claude 2,整体成功率大约只有 2%。而 Claude Mythos Preview 的成绩已经达到 93.9%,基本上接近打满这个 benchmark。
当然,所有 benchmark 本身都会有一定噪声,所以通常会出现这样一个阶段:当分数高到某个程度之后,你碰到的可能不再是方法本身的限制,而是 benchmark 自身的限制。比如在 ImageNet 验证集中,大约 6% 的标签就是错误或存在歧义的。
SWE-Bench 可以被视为衡量通用编程能力,以及 AI 对软件工程影响的一个可靠指标。Clark 表示,他在前沿 AI 实验室和硅谷接触到的大多数人,现在几乎都已经完全通过 AI 系统来写代码,并且越来越多的人开始用 AI 系统来编写测试、检查代码。
换句话说,AI 系统已经足够强,能够自动化 AI 研发中的一个重要组成部分,并显著加速所有参与 AI 研发的人类研究员和工程师。
衡量 AI 系统完成长时任务的能力
METR 制作了一张图,用来衡量 AI 能完成多复杂的任务。这里的复杂度,是按照一个熟练人类完成这些任务大概需要多少小时来计算的。
其中最关键的指标,是 AI 系统在一组任务上达到 50% 可靠性时,对应的大致任务时间跨度。
在这一点上,进展非常惊人:
2022 年,GPT-3.5 能完成的任务,大概相当于人类需要 30 秒完成的任务。
2023 年,GPT-4 把这个时间提升到了 4 分钟。
2024 年,o1 把这个时间提升到了 40 分钟。
2025 年,GPT-5.2 High 达到了大约 6 小时。
到 2026 年,Opus 4.6 已经把这个时间进一步推高到大约 12 小时。
在 METR 工作、长期关注 AI 预测的 Ajeya Cotra 认为,到 2026 年底,AI 系统能够完成相当于人类需要 100 小时的任务,并不是一个不合理的预期。
AI 系统能够独立工作的时间跨度显著增长,也和 agentic coding 工具的爆发高度相关。所谓 agentic coding 工具,本质上就是把能替人完成工作的 AI 系统产品化:它们可以代表人类行动,并在相当长一段时间内相对独立地推进任务。
这也重新指向 AI 研发本身。仔细观察许多 AI 研究员的日常工作会发现,其中大量任务其实都可以拆解成几个小时级别的工作,比如清洗数据、读取数据、启动实验等等。
而这类工作,如今已经落入现代 AI 系统能够覆盖的时间跨度之内。
AI 系统越熟练,越能独立于人类工作,就越能帮助自动化 AI 研发中的一部分工作。
任务委托的关键因素主要有两个:
一是你对被委托者能力的信心;
二是你相信对方能够在不依赖你持续监督的情况下,按照你的意图独立完成工作。
当用户在观察 AI 在编程方面的能力时,会发现 AI 系统不仅变得越来越熟练,也越来越能在不需要人类重新校准的情况下,独立工作更长时间。
这也和我们身边正在发生的事情相吻合,工程师和研究员正在把越来越大块的工作交给 AI 系统完成。随着 AI 能力持续提升,被委托给 AI 的工作也变得越来越复杂、越来越重要。
AI 正在掌握 AI 研发所必需的核心科学技能
想想现代科学研究是怎么进行的,其中很大一部分工作,其实就是先确定一个方向,明确自己想获得哪类经验性信息;然后设计并运行实验,生成这些信息;最后再对实验结果进行合理性检查。
随着 AI 编程能力不断提升,再加上大语言模型越来越强的世界建模能力,如今已经出现了一批工具,能够帮助人类科学家提速,并在更广泛的研发场景中部分自动化某些环节。
在这里,我们可以观察 AI 在几项关键科学技能上的进展速度,而这些能力本身也正是 AI 研究不可或缺的一部分:
一是复现研究结果;
二是把机器学习技术和其他方法串联起来,用来解决技术问题;
三是优化 AI 系统自身。
实现整篇科学论文,并完成相关实验
AI 研究中的一项核心工作,是阅读科学论文,并复现其中的结果。在这方面,AI 已经在一系列 benchmark 上取得了显著进展。
一个很好的例子是 CORE-Bench,也就是 Computational Reproducibility Agent Benchmark。
这个 benchmark 要求 AI 系统在给定一篇论文及其代码仓库的情况下,复现论文中的结果。具体来说,Agent 需要安装相关库、软件包和依赖,运行代码;如果代码成功运行,它还需要搜索所有输出结果,并回答任务中的问题。
CORE-Bench 于 2024 年 9 月提出。当时表现最好的系统,是运行在 CORE-Agent scaffold 中的 GPT-4o 模型。在该 benchmark 最困难的一组任务上,它的得分约为 21.5%。
而到了 2025 年 12 月,CORE-Bench 的一位作者宣布,这个 benchmark 已经被解决了:Opus 4.5 模型取得了 95.5% 的成绩。
构建完整的机器学习系统,解决 Kaggle 竞赛问题
MLE-Bench 是 OpenAI 构建的一个 benchmark,用来测试 AI 系统在离线环境中参加 Kaggle 竞赛的能力。
它覆盖了 75 个不同类型的 Kaggle 竞赛,涉及多个领域,包括自然语言处理、计算机视觉和信号处理等。
MLE-Bench 于 2024 年 10 月发布。发布时,表现最好的系统是一个运行在 agent scaffold 中的 o1 模型,得分为 16.9%。
截至 2026 年 2 月,表现最好的系统已经变成了运行在带搜索能力的 agent harness 中的 Gemini 3,得分达到 64.4%。
Kernel 设计
AI 开发中一项更难的任务是 kernel 优化。所谓 kernel 优化,就是编写并改进底层代码,把矩阵乘法这类特定运算更高效地映射到底层硬件上。
Kernel 优化之所以是 AI 开发的核心,是因为它决定了训练和推理的效率:一方面,它影响你在开发 AI 系统时,究竟能有效利用多少算力;另一方面,当模型训练完成后,它也决定你能多高效地把算力转化为推理能力。
近年来,用 AI 做 kernel 设计,已经从一个有趣的小方向,变成了一个竞争激烈的研究领域,并且出现了多个 benchmark。不过,这些 benchmark 目前还没有特别流行,所以我们很难像其他领域那样清晰地建模它的长期进展。另一方面,我们可以通过一些正在进行的研究,感受这个方向的推进速度。
相关工作包括:
用 DeepSeek 的模型尝试构建更好的 GPU kernel;
自动把 PyTorch 模块转换成 CUDA 代码;
Meta 用 LLM 自动生成优化后的 Triton kernel,并部署到自己的基础设施中;
以及针对 GPU kernel 设计微调开源权重模型,例如 Cuda Agent。
这里需要补充一点:kernel 设计确实具备一些特别适合 AI 驱动研发的属性,比如结果容易验证、奖励信号比较明确。
通过 PostTrainBench 微调语言模型
这类测试的一个更困难版本是 PostTrainBench。它测试的是,不同前沿模型能否接手较小的开源权重模型,并通过微调提升它们在某些 benchmark 上的表现。
这个 benchmark 的一个优点是,它有非常强的人类基线:这些小模型现有的 instruct-tuned 版本。这些版本通常由前沿实验室中优秀的人类 AI 研究员开发,已经经过非常有能力的研究员和工程师打磨,并被部署到真实世界中。因此,它们构成了一个很难超越的人类基准。
截至 2026 年 3 月,AI 系统已经能够对模型进行后训练,并获得大约相当于人类训练结果一半的性能提升。
具体评估分数来自一个加权平均:它会综合多个后训练的大语言模型,包括 Qwen 3 1.7B、Qwen 3 4B、SmolLM3-3B、Gemma 3 4B,以及多个 benchmark,包括 AIME 2025、Arena Hard、BFCL、GPQA Main、GSM8K、HealthBench、HumanEval。
在每次运行中,评测方会要求一个 CLI agent,尽可能提升某个特定基础模型在某个特定 benchmark 上的表现。
截至 2026 年 4 月,得分最高的 AI 系统大约能达到 25% 到 28%,代表模型包括 Opus 4.6 和 GPT 5.4;相比之下,人类得分为 51%。
这已经是一个相当有意义的结果。
优化语言模型训练
过去一年,Anthropic 一直在报告其系统在一项 LLM 训练任务上的表现。这个任务要求模型优化一个仅使用 CPU 的小型语言模型训练实现,让它尽可能快地运行。
评分方式是:相较于未修改的初始代码,模型实现的平均加速倍数。
这项结果进展非常显著:
2025 年 5 月,Claude Opus 4 实现了 2.9 倍平均加速;
2025 年 11 月,Opus 4.5 提升到 16.5 倍;
2026 年 2 月,Opus 4.6 达到 30 倍;
2026 年 4 月,Claude Mythos Preview 达到 52 倍。
为了理解这些数字的含义,可以做一个参照:在人类研究员身上,这项任务通常需要 4 到 8 小时工作,才能实现 4 倍加速。
元技能:管理
AI 系统也正在学习如何管理其他 AI 系统。
这一点已经可以在一些广泛部署的产品中看到,比如 Claude Code 或 OpenCode。在这些产品里,一个主 agent 可以监督多个 sub-agent。
这让 AI 系统能够处理更大规模的项目:项目中可能需要多个具备不同专长的智能体并行工作,而它们通常由一个单一的 AI 管理者来协调。这里的管理者本身也是一个 AI 系统。
AI 研究更像发现广义相对论,还是搭乐高?
一个关键问题是:AI 能否发明出新的想法,帮助它改进自身?还是说,这些系统更适合完成研究中那些不那么光鲜、但必须一砖一瓦推进的工作?
这个问题很重要,因为它关系到 AI 系统能在多大程度上端到端自动化 AI 研究本身。
作者的判断是:AI 目前还不能提出真正激进的全新思想。但要实现自身研发自动化,它或许并不一定需要做到这一点。
作为一个领域,AI 的进步很大程度上依赖于越来越大的实验,以及越来越多的输入,比如数据和算力。
偶尔,人类会提出一些改变范式的想法,使整个领域的资源效率大幅提升。Transformer 架构就是一个很好的例子,混合专家模型,也就是 mixture-of-experts,也是另一个例子。
但更多时候,AI 领域的推进方式其实更朴素:人类会拿一个表现良好的系统,扩大其中某个方面,比如训练数据和算力;观察扩大规模后哪里出问题;找到工程上的修复方案,让系统能够继续扩展;然后再次扩大规模。
这个过程里,真正需要洞见的部分其实很少。大量工作更像是不那么耀眼、但非常扎实的基础工程。
类似地,很多 AI 研究其实是在运行现有实验的各种变体,探索不同参数设置会带来什么结果。研究直觉当然能帮助人类挑选最值得尝试的参数,但这件事本身也可以被自动化,让 AI 自己判断哪些参数值得调整。早期的神经架构搜索,就是这类思路的一个版本。
爱迪生曾说:天才是 1% 的灵感,加上 99% 的汗水。即便过去 150 年,这句话依然很贴切。
偶尔,确实会出现彻底改变一个领域的新洞见。但大多数时候,领域进步是靠人类在改进和调试各种系统的艰苦过程中,一点点推进出来的。
而前面提到的公开数据表明,AI 已经非常擅长执行 AI 开发中许多必要的苦活累活。
与此同时,还有一个更大的趋势:基础能力,比如编程能力,正在和不断扩展的任务时间跨度结合起来。这意味着 AI 系统可以把越来越多这类任务串联起来,形成复杂的工作序列。
因此,即便 AI 系统目前相对缺乏创造力,也有理由相信,它们仍然能够推动自身继续向前发展。只是相比能够产生全新洞见的情况,这种推进速度可能会更慢。
但如果继续观察公开数据,会发现另一个令人好奇的信号:AI 系统也许正在展现出某种创造力,而这种创造力可能让它们以更令人惊讶的方式推动自身进步。
推动科学前沿继续向前
目前已经有一些非常初步的迹象表明,通用 AI 系统有能力推动人类科学前沿继续向前发展。不过到目前为止,这种情况只发生在少数几个领域,主要是计算机科学和数学。而且很多时候,并不是 AI 系统单独完成突破,而是以人机协作的方式,与人类研究者共同推进。
尽管如此,这些趋势仍然值得观察:
Erdős 问题:一组数学家与 Gemini 模型合作,测试它在解决一些 Erdős 数学问题上的表现。他们引导系统尝试了大约 700 个问题,最终得到了 13 个解答。在这些解答中,有 1 个被他们认为是有趣的。
研究者写道,他们初步认为,Aletheia(一套基于 Gemini 3 Deep Think 的 AI 系统) 对 Erdős-1051 的解答,代表了一个早期案例:一个 AI 系统自主解决了一个略具非平凡性、并且有一定更广泛数学兴趣的开放 Erdős 问题。该问题此前已有一些 closely-related 的相关研究文献。
如果往乐观方向理解,这些案例可以被看作一个信号:AI 系统正在发展出某种能够推动领域前沿的创造性直觉,而这种直觉过去主要属于人类。
但也可以从另一面解释:数学和计算机科学可能本身就是特别适合 AI 驱动发明的领域,因此它们或许只是例外,并不能代表更广泛的科学研究都会被 AI 以同样方式推进。
另一个类似例子是 AlphaGo 的第 37 手。不过 Clark 认为,距离 AlphaGo 那次结果已经过去十年,而第 37 手之后并没有被某个更现代、更惊人的洞见所取代,这本身也可以被视为一个略偏悲观的信号。
AI 已经可以自动化 AI 工程中的大片工作
如果把上面所有证据放在一起,我们可以看到这样一幅图景:
AI 系统已经能够为几乎任何程序编写代码,而且这些系统已经可以被信任去独立完成一些任务;这些任务如果交给人类,往往需要数十小时的高强度专注劳动。
AI 系统越来越擅长完成 AI 开发中的核心任务,从模型微调到 kernel 设计,都在被逐步覆盖。
AI 系统已经能够管理其他 AI 系统,实际上形成一种合成团队:多个 AI 可以分头处理复杂问题,其中一些 AI 扮演负责人、批评者、编辑者的角色,另一些 AI 则扮演工程师的角色。
AI 系统有时已经能在困难的工程和科学任务上超过人类,尽管目前还很难判断,这究竟是因为它们具备了真正的创造力,还是因为它们已经熟练掌握了大量模式化知识。
在 Clark 看来,这些证据已经非常有说服力地表明:今天的 AI 已经可以自动化 AI 工程中的大片工作,甚至可能覆盖其中的全部环节。
不过,目前还不清楚 AI 能在多大程度上自动化 AI 研究本身。因为研究中的某些部分,可能不同于纯工程技能,仍然依赖更高层次的判断、问题意识和创造性。
但无论如何,一个清晰信号已经出现:今天的 AI 正在大幅加速从事 AI 开发的人类,让这些研究员和工程师可以通过与无数合成同事配对协作,放大自己的工作能力。
最后,AI 行业本身也几乎是在明说:自动化 AI 研发就是它们的目标。
OpenAI 希望在 2026 年 9 月之前构建一个自动化 AI 研究实习生。Anthropic 正在发表关于构建自动化 AI 对齐研究员的工作。DeepMind 在三大实验室中显得最谨慎,但也表示,在可行时应该推进对齐研究自动化。
自动化 AI 研发也已经成为许多创业公司的目标。Recursive Superintelligence 刚刚融资 5 亿美元,目标就是自动化 AI 研究。
换句话说,数千亿美元级别的既有资本和新增资本,正在投入到一批以自动化 AI 研发为目标的机构中。
因此,我们当然应该预期,这个方向至少会取得某种程度的进展。
为什么这很重要
这带来的影响深远,但在大众媒体对 AI 研发的报道中却鲜有讨论。以下这几个方面可以反映出 AI 研发带来的巨大挑战。
1. 我们必须把对齐做好:如今有效的对齐技术可能会在递归式自我改进中失效,因为 AI 系统会变得比监督它们的人员或系统智能得多。这是一个已被广泛研究的领域,所以他只简要概述一些问题:
训练人工智能系统不撒谎和作弊是一个出人意料的微妙过程(例如,尽管努力为环境构建良好的测试,但有时人工智能解决问题的最佳方法是作弊,从而教会它作弊是可行的)。
AI 系统可能通过「假装对齐」来欺骗我们,输出让我们以为它表现良好的分数,但实际上隐藏了它真实的意图。(一般来说,AI 系统已经能够察觉自己何时正在被测试。)
随着 AI 系统开始更多地参与自身训练的基础研究议程,我们可能会大幅改变 AI 系统的整体训练方式,却没有良好的直觉或理论基础来理解这意味着什么。
当你把某个系统置于递归循环中时,会产生非常基本的「误差累积」问题,这可能会影响上述所有问题及其他问题:除非你的对齐方法「100% 准确」且理论上能够在更聪明的系统中持续保持准确,否则事情可能很快出错。例如,你的技术初始精度是 99.9%,经过 50 代可能降为 95.12%,经过 500 代可能降到 60.5%。
2.AI 涉及的每一件事都会获得巨大的生产力倍增: 就像 AI 显著提高软件工程师的生产力一样,我们应该预期 AI 涉及的其他领域也会如此。这带来几个需要应对的问题:
获取资源不平等:假设 AI 的需求继续超过计算资源供应,我们必须决定如何分配 AI 以实现社会的最大利益。我对市场激励能够保证我们从有限的 AI 计算中获得最佳社会收益持怀疑态度。确定如何分配 AI 研发带来的加速能力将是一个政治性很强的问题。
经济的「阿姆达尔定律」:随着 AI 流入经济,我们会发现某些环节在面对高速增长时会出现瓶颈,需要想办法修复这些链条中的薄弱环节。这在需要协调快速数字世界与缓慢物理世界的领域可能尤为明显,比如新药临床试验。
3. 资本密集型、人力轻型经济的形成 :上述所有关于 AI 研发的证据也表明,AI 系统越来越有能力自主运营企业。这意味着我们可以预期,经济中的一部分将被新一代公司占据,这些公司可能是资本密集型(因为它们拥有大量计算机),或运营开支密集型(因为它们在 AI 服务上花费大量资金并在其基础上创造价值),相比今天的企业,它们对人力的依赖相对较低 —— 因为随着 AI 系统能力持续增强,投入 AI 的边际价值会不断增长。实际上,这将表现为「机器经济」在更大「人类经济」中逐渐形成,随着时间推移,AI 运营的公司可能会开始相互交易,从而改变经济结构,并引发关于不平等和再分配的各种问题。最终,可能会出现完全由 AI 系统自主运营的公司,这将加剧上述问题,同时带来许多新的治理挑战。
凝视黑洞
基于以上分析,作者认为到 2028 年底,我们看到自动化 AI 研发(即前沿模型能够自主训练其继任版本)的概率约为 60%。为什么不预期它在 2027 年出现?原因是作者认为 AI 研究仍然需要创造力和异议见解才能前进,到目前为止,AI 系统尚未以变革性和重大方式展示这一点(尽管在加速数学研究上的一些结果有启示)。如果非要他给出 2027 年的概率,他会说 30%。
如果到 2028 年底还没有出现,我们可能就会揭示当前技术范式中的一些根本性缺陷,需要人类发明推动进一步发展。