登录

摩尔线程S 5000+智源FlagOS:基于原生FP 8引擎,Day


速读:作为国内率先原生支持FP8精度的全功能GPU,MTTS5000配置了强大的硬件级FP8TensorCore加速单元。 摩尔线程S5000+智源FlagOS:基于原生FP8引擎,Day摩尔线程S5000+智源FlagOS:基于原生FP8引擎,Day-0适配DeepSeek-V4。
摩尔线程S5000 + 智源FlagOS:基于原生FP8引擎,Day-0适配DeepSeek-V4

摩尔线程S5000 + 智源FlagOS:基于原生FP8引擎,Day-0适配DeepSeek-V4

2026年04月24日 16:54

4月24日, 摩尔线程 携手 智源 众智 FlagOS 社区,在旗舰级AI训推一体全功能GPU MTT S5000 上,率先实现对新一代大模型 DeepSeek-V4 -Flash的Day-0极速适配,并完成了全量核心算子的深度优化与部署支持。

DeepSeek-V4 -Flash 采用混合专家(MoE)架构,总参数量高达284B,激活参数13B,支持百万token上下文长度。其预训练数据超32Ttoken,在最大推理力度模式(Flash-Max)下推理能力逼近Pro版本。值得关注的是,V4模型首次采用“FP4+FP8”混合精度策略,而当前国内主流 AI 芯片仍普遍以BF16为主。而 摩尔线程 凭借独特的原生FP8支持优势,能够更高效承载 DeepSeek-V4 的前沿精度设计,为模型部署与推理优化提供了坚实的算力底座。

作为国内率先原生支持FP8精度的全功能GPU,MTT S5000 配置了强大的硬件级FP8 Tensor Core 加速单元。相比传统的BF16/FP16,FP8能够将数据位宽直接减半,使显存带宽压力降低 50%,理论计算吞吐量实现翻倍。

为充分发挥MTT S5000 在FP8计算上的内核优势, FlagOS 对DeepSeek V4模型进行了FP8量化。通过系统级分析,双方技术团队将本次适配的攻坚重点锁定在FP8算子与Sparse Attention算子。针对这两个决定长上下文效率与极致推理性能的关键算子,团队从“编译优化”与“自动调优”两个核心方向取得了重大突破:

▼ 方向一:深入利用 摩尔线程 FlagTree编译器能力,提升底层执行效率。通过精细化的 shape 对齐策略,使 FP8 和 Sparse Attention 的计算 shape 更好地满足摩尔线程张量访存与计算引擎(TME/TCE)的要求;同时结合 MUSA_ENABLE_SQMMA,进一步加速 tl.dot 矩阵计算。

▼ 方向二:借助 FlagOS -Tune,自动搜索最优 Triton 内核配置。FlagOS-Tune 能够扩展算子的搜索空间,基于模型真实 shape 离线搜索 FP8 和 Sparse Attention 算子的最优内核配置,效果优于手工调参。

主题:FP8|摩尔线程S5000+智源FlagOS|Day-0适配DeepSeek-V4