登录

寒武纪成功适配DeepSeek-V 4,推动AI模型高效运行


2026-04-24 14:12

寒武纪公司宣布,他们已成功完成对深度求索公司 最新 开源 AI 模型 DeepSeek-V4 的 Day 0 适配。此举意味着该模型在发布当天即可实现稳定运行,为用户带来了更高效的人工智能体验。寒武纪利用其自主研发的高性能融合算子库 Torch-MLU-Ops,对模型中的 Compressor、mHC 等模块进行了针对性加速。这项技术的引入大幅提升了推理效率。

在推理框架方面,寒武纪采用了 vLLM(Variable Length Language Model)技术,全面支持多种并行计算方式,包括 TP、PP、SP、DP 和 EP 等。同时,寒武纪还实现了通信计算并行、低精度量化和 PD 分离部署等优化。这些措施使得模型在满足延时约束的情况下,显著提高了处理速度。

此外,寒武纪还深入挖掘了硬件特性,通过优化 MLU 访存与排序,加速了稀疏 Attention 和 Indexer 等结构的运行。高互联带宽和低通信延迟的特性将不同工作负载场景下的通信占比降至 最低 ,有效提高了分布式推理的利用率。

值得一提的是,DeepSeek-V4 模型拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上,达到了国内外开源领域的领先水平。用户可以通过访问官网或官方 App,与 最新 的 DeepSeek-V4 进行互动,享受超长上下文记忆带来的全新体验。同时,API 服务也已更新,开发者可以轻松调用新模型。

这一系列优化和适配工作不仅提升了模型性能,也为后续的 AI 技术应用提供了坚实基础,展现了寒武纪在人工智能领域的强大实力。

划重点:

🌟 寒武纪完成对 DeepSeek-V4 的 Day 0 适配,模型发布当天稳定运行。

🚀 自主研发的高性能算子库和推理框架优化显著提升推理效率。

📈 DeepSeek-V4 支持百万字超长上下文,带来领先的 AI 体验。

主题:模型|寒武纪|运行|Day0适配