端侧智能体迈入拐点,联发科如何把AI平台做成可交付的能力?
过去一年,端侧AI的竞争逻辑已经发生变化。
行业讨论的重点,正在从模型能不能跑起来,转向能力能不能持续部署、稳定调优、真正进入系统主路径。Agent OS、系统原生智能体、跨应用执行、端侧隐私保护,这些原本分散的技术关键词,也开始被收拢到同一个方向——端侧智能体化。
而真正决定下一阶段竞争格局的,已经不再只是模型参数规模或者芯片峰值算力,而是谁能把智能体能力做成一套可部署、可调优、可复制的工程体系。
在天玑开发者大会(MDDC 2026)上,MediaTek 试图回答的正是这个问题。
这次大会上,联发科把天玑 AI 开发套件、系统原生智能体能力,以及游戏技术体系放进同一套叙事里。它强调的已经不只是芯片性能,而是天玑平台如何成为开发者真正能用、系统厂商真正能落地的端侧AI底座。
MediaTek 董事、总经理暨营运长陈冠州表示:“智能体 AI 正在重构和升级越来越多的行业和应用场景。MediaTek 以覆盖手机、汽车、IoT以及AI基础设施的全栈、多元技术与产品组合赋能‘智能体化体验’,以无处不在的强大算力,结合先进的云端AI加速技术,为全球生态伙伴打通从创意到规模化落地、从应用价值到商业价值的关键跃迁,让 AI 真正赋能大众的日常生活和千行百业的增长曲线。”
端侧AI的竞争,开始从算力转向工具链
如果说过去两年端侧AI的核心任务,是把模型塞进手机,那么现在行业真正面对的问题已经变成,模型如何稳定部署、持续运行,并形成规模化开发能力。
AI 开发套件就非常关键,MDDC 2026 上,联发科发布了天玑AI开发套件 3.0,并重点强化了四项能力:
LVM 模型可视化部署
从命令行升级为 GUI 模块化部署,参数可实时生效,模型部署与调优效率提升 50%。
Low Bit 压缩工具包
降低生成式AI模型压缩过程中的设备内存占用,相同质量模型的压缩率最高提升 58%。
eNPU 开发工具包
帮助开发者更充分调用天玑 NPU 能力,使常驻轻载 AI 模型功耗降低 42%。
天玑 AI Partner
提供自动化端侧模型转换与迁移,LLM 模型部署耗时最高降低 90%。
表面上看,这只是几个工程工具的升级,但它们实际对应的,是当前端侧AI落地最现实的四个问题:开发门槛高、模型占用大、功耗压力重、跨平台迁移成本高。
这也暴露出端侧智能体化真正的难点:问题从来不在于能不能做出 Demo,而在于能不能把 Demo 变成稳定产品,再把单点能力变成一套可复制的方法论。
当行业进入智能体阶段后,工具链的重要性正在迅速上升。因为决定体验上限的,已经不只是模型本身,而是整个部署、调优、功耗控制和系统协同能力。
Agent OS 真正的核心,是系统级能力
相比模型能力本身,联发科这次在系统层面的布局更值得关注。
大会上,联发科正式发布天玑 AI 智能体化引擎 2.0,并借助 SensingClaw 技术强化低功耗全时感知能力,进一步推动设备厂商构建具备主动感知、跨应用驱动能力的 Agent OS。
这背后意味着,AI 正在从应用功能向系统能力迁移。
过去的 AI 更像是用户主动调用的一项功能;而智能体化之后,设备开始具备持续感知、主动判断、跨应用执行的能力。设备不再只是回答问题,而是开始参与任务流。
在MDDC现场,联发科联合 OPPO、Xiaomi与传音展示了系统原生Claw能力,包括:主动感知、主动执行、跨端无缝流转、端侧隐私保护、数据安全 。
单独看,这些能力并不算新鲜,但放在一起看,本质上是在为智能体操作系统搭建底层框架。
而这恰恰是端侧AI下一阶段最核心的竞争点:不是谁更像 AI,而是谁能让 AI 真正进入系统主路径,成为交互逻辑的一部分。
游戏,端侧AI最真实的压力测试
如果说 AI 开发套件和 Agent OS 代表的是未来,那么游戏部分代表的则是现在。
游戏也是联发科此次开发者大会中极其关键的一环。原因很简单:游戏是移动终端上最苛刻的实时场景之一,它同时考验帧率、功耗、延迟、渲染能力、调优效率 。
一个平台如果连游戏都优化不好,很难证明它具备成熟的端侧AI与系统调度能力;反过来,如果游戏能力能够跑顺,很多底层工程能力其实已经被验证。
此次大会上,联发科重点展示了星速引擎的一系列能力。