DeepSeek-V 4预览版正式发布:1 M超长上下文进入全员普惠时代
深度求索(DeepSeek)今日宣布其全新系列模型 DeepSeek-V4 预览版本正式上线并同步开源。该系列模型通过结构创新,实现了1M(一百万字)超长上下文能力的标准化,在 Agent 协作、世界知识及逻辑推理性能上均达到国内及开源领域的领先水平。
双版本布局:Pro 追求 极致 ,Flash 兼顾效率
DeepSeek-V4 根据应用需求分为两个规格:
DeepSeek-V4-Pro(1.6T参数,激活49B): 性能直击 顶级 闭源模型。在 Agentic Coding 评测中达到开源 最佳 水平,交付质量接近 Opus4.6;在数学、STEM 及竞赛代码测评中,超越所有公开评测的开源模型,展现出世界 顶级 的推理性能。
DeepSeek-V4-Flash(284B参数,激活13B): 主打 极致 性价比。虽然世界知识储备略逊于 Pro 版,但在简单任务的推理能力和 Agent 表现上与 Pro 版旗鼓相当,能提供更快捷、经济的 API 服务。

结构创新:DSA 机制实现长上下文普惠
DeepSeek-V4 开创性地采用了 DSA 稀疏注意力机制 。通过在 Token 维度进行压缩,模型大幅降低了超长上下文对计算量和显存的需求。这意味着1M 上下文将成为 DeepSeek 所有官方服务的标配,解决了长文本处理高昂成本的行业痛点。
深度适配 Agent 生态
针对当前主流的 Agent 产品(如 Claude Code、CodeBuddy 等), DeepSeek-V4 进行了专项优化。模型支持 非思考模式 与 思考模式 ,并在 API 中开放了 reasoning_effort 参数,允许用户根据任务复杂度调节思考强度(high/max),显著提升了在代码生成和文档处理等复杂场景下的表现。

访问与开源计划
目前,用户可通过 官网 或官方 App 体验 最新 模型,API 亦已同步更新。值得注意的是,旧有的 deepseek-chat 与 deepseek-reasoner 模型名将于三个月后(2026年7月24日)停用。

开源链接: 已在 Hugging Face 与 魔搭社区 上线。
技术报告: 同步披露于 Hugging Face 仓库中。
此次 DeepSeek-V4 的发布,不仅验证了开源模型在长上下文与 Agent 能力上追赶 顶级 闭源模型的可行性,更通过技术架构的突破,为 AGI 的普惠化进程提供了坚实的底座支持。
DeepSeek-V4模型开源链接:
https://huggingface.co/collections/deepseek-ai/deepseek-v4
https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4