登录

Claude Mythos预览版问世代码安全需建立全新防护机制


速读:亚马逊云科技、苹果、谷歌、微软、英伟达等科技巨头作为首批合作方,将利用Mythos预览版开展软件漏洞扫描与安全加固工作。
2026年04月29日 15:23

来源:Eric Frommelt 来源:Eric Frommelt 不法分子正利用生成式 人工智能 发起网络攻击:借助 AI 深度伪造实施诈骗、利用 AI 编程工具开发恶意软件、依托聊天机器人开展钓鱼攻击,甚至通过智能 AI 代理入侵主流开源代码仓库。这类由 AI 驱动的网络威胁正在持续攀升。

今年 4 月初,Anthropic 旗下负责评估模型安全风险的前沿红队公布:Claude Mythos 预览版已识别出数千个高危及严重等级的安全漏洞。即便该模型并未接受专门的漏洞挖掘训练,仍发现了所有主流操作系统及主流网页浏览器中存在的多处隐患。

这一发现促使 Anthropic 启动玻璃翼计划(Project Glasswing),旨在防范各类借助 AI 实施的网络攻击。亚马逊云科技、苹果、谷歌、微软、英伟达等科技巨头作为首批合作方,将利用 Mythos 预览版开展软件漏洞扫描与安全加固工作。

生成式 AI 在代码编写、逻辑推理及自主任务执行方面能力愈发强大,既能精准发现 代码安全 隐患,也同样能被用来利用这些漏洞发起攻击。网络安全专家认为:只要在流程中搭建多层核验机制,并保留人工研判与专业审核环节,就能在借助 AI 检测代码漏洞的同时守住安全底线、实现合理平衡。

AI 可精准挖掘高危代码漏洞

Mythos 预览版挖掘出的漏洞包括:开源类 Unix 系统 OpenBSD 中一处长达 27 年未被发现的程序缺陷,可让远程攻击者瘫痪任意搭载该系统的设备;一款浏览器漏洞,攻击者只需拥有自建网站域名,就能跨域读取用户银行等敏感数据;此外还在多个密码学函数库中发现缺陷,可被黑客用于解密加密通信、伪造数字证书。

代码漏洞挖掘本就是网络安全研究员的常规工作,AI 只是新增的强力工具, 代码安全 解决方案厂商 Sonar 代码安全 副总裁杰里米 ・ 卡茨表示。大语言模型擅长根据定向指令检索特定安全漏洞。“你可以让 AI 代理扫描大型代码仓库,它极擅长在海量代码中精准定位隐藏漏洞。”

金融科技公司 Upgrade 首席应用安全工程师纳扬 ・ 戈尔认为,速度与代码语义理解能力是 AI 模型的核心优势。AI 发现漏洞的效率远超人工,且能理解代码深层语义、跨抽象层级追踪数据流,能力远超传统静态分析工具的简单模式匹配。

“这种跨组件逻辑推理能力,从架构上就超越了传统规则化工具。” 戈尔说道,“新一代 AI 安全工具的思考方式,已经贴近专业安全研究员的分析逻辑。”

网络安全公司 Theori 联合创始人兼首席技术官安德鲁 ・ 韦西也持乐观态度:“我们如今拥有了一套有望找出全部漏洞的方法,这曾被视作遥不可及的梦想,而现在已经具备落地可行性。”

尽管潜力巨大,但大语言模型仍普遍存在误报问题:把普通程序缺陷误判为安全漏洞,或是夸大漏洞危害等级。这导致海量告警中难以筛选有效风险,尤其对于维护开源项目的志愿者而言,被迫承受快速修复漏洞的巨大压力。

长期参与开源漏洞协同披露工作的卡茨对此深有体会:“漏洞上报数量激增,其中不少确实是需要修复的程序 Bug,但并不属于安全漏洞,两者的边界正在变得模糊。同时漏洞分类研判耗费的时间成本也大幅增加。”

另一大隐患在于:AI 工具既可能被提示注入等手段攻击,也能主动发起攻击。例如 Mythos 预览版可将多个独立但关联的漏洞串联,形成完整攻击链路,进而获取 Linux 内核最高管理员权限。

平衡 AI 安全工具效能 坚守人工审核底线

网络安全专家指出,完全可以扬长避短,合理利用 AI 安全能力、规避其固有缺陷。Claude 代码安全工具、谷歌 CodeMender 等产品采用对抗性自我复核机制:模型输出结果前先自我质疑、自查校验。还可将一份检测结果交由另一大模型或 AI 代理交叉验证,减少误报,在流程中形成制衡校验。

但戈尔强调,AI 标记的所有隐患必须经过人工复核确认。“AI 输出的是概率性结果,并非最终定论。它无法替代专业的安全架构评审与渗透测试。必须有人读懂代码背后的业务逻辑并完成审核。AI 给出的每一项发现,都要经过完整核验流程,始终保留人工介入环节,以此建立安全信任边界。”

戈尔还提出,动态威胁建模与红蓝对抗演练也是平衡 AI 漏洞检测风险的有效方式。动态威胁建模持续评估 AI 系统面临的潜在威胁,并随系统迭代优化防护策略;红蓝对抗则专门测评 AI 自身的安全隐患及衍生风险。

实现代码漏洞检测的安全平衡,还需要优化研发流程:将安全左移,在程序员编码阶段就嵌入安全审查,可大幅降低后续风险。

软件安全公司Secure Code Warrior 联合创始人兼首席技术官马蒂亚斯 ・ 马杜表示:“企业应建立常态化培训与技能提升机制,让开发者在软件发布前就能自行规避代码缺陷。从源头培养安全编码与审核能力,是防范重大安全事故的必要举措。”

随着 AI 识别代码漏洞、精准判定危害等级的能力持续提升,下一阶段的核心挑战,是实现漏洞规模化检测与批量修复的闭环。

Theori 产品副总裁杰弗里 ・ 马丁表示:“安全工作流程的最后一环是漏洞修复。安全从业者都清楚漏洞需要闭环整改,且修复具备固定规律,未来完全可以借助 AI 实现规模化批量修复,这也将是 AI 下一阶段的核心发力方向。”

主题:漏洞|安全漏洞