登录

DeepSeek-V 4预览版正式上线:定价揭晓


速读:DeepSeek今日正式发布其全新系列模型DeepSeek-V4的预览版本,并同步进行开源。
2026-04-24 13:36

站长之家(ChinaZ.com)4月24日 消息: DeepSeek今日正式发布其全新系列模型DeepSeek-V4的预览版本,并同步进行开源。此次发布标志着AI模型在超长上下文处理能力上迈入了一个新的、更普及的阶段。

根据官方发布的信息,DeepSeek-V4系列模型有两个核心版本:性能更强的DeepSeek-V4-Pro和更侧重经济高效的DeepSeek-V4-Flash。即日起,用户便可在官方网站和手机App上与 最新 的DeepSeek-V4对话,体验其1M(一百万)超长上下文的特性。API服务也已同步更新。

微信截图_20260424133604.png

DeepSeek-V4 最大 的亮点之一,是将百万字的超长上下文作为其所有官方服务的标配。这得益于模型在结构上的创新,它采用了一种全新的注意力机制,在token维度进行压缩,并结合了DSA稀疏注意力技术,实现了全球领先的长上下文能力,同时大幅降低了对计算和显存的需求。

在具体性能上,DeepSeek-V4-Pro版的表现尤为突出。它在Agent能力上实现了大幅提高,尤其在Agentic Coding评测中,已达到当前开源模型的 最佳 水平。公司内部员工将其用作Agentic Coding模型后,反馈其使用体验优于Sonnet4.5。此外,该版本在世界知识测评中大幅领先其他开源模型,其推理性能也在数学、STEM、竞赛型代码等评测中超越了所有已知的开源模型,达到了比肩世界 顶级 闭源模型的水平。

微信截图_20260424133643.png

为了满足不同场景的需求,DeepSeek-V4-Flash则提供了一个更快捷、经济的选项。它在世界知识储备上稍逊于Pro版,但展现了接近的推理能力。在Agent测评中,Flash版在简单任务上与Pro版旗鼓相当,但在高难度任务上仍有差距。

微信截图_20260424133619.png

DeepSeek方面特别针对主流Agent产品(如Claude Code, OpenClaw, OpenCode, CodeBuddy等)进行了适配和优化,提升了在代码任务、文档生成等方面的表现。用户可以通过API调用新版模型。需要注意的是,旧有的API接口模型名“deepseek-chat”与“deepseek-reasoner”将在三个月后(2026年7月24日)停止使用。目前,这两个模型名已分别指向deepseek-v4-flash的非思考模式与思考模式。

最后,DeepSeek不仅上线了模型服务,还同时开源了模型权重,并发布了技术报告。开发者和研究者可以通过Hugging Face和ModelScope平台获取相关资源,进行本地部署和研究。

DeepSeek-V4模型开源链接:

https://huggingface.co/collections/deepseek-ai/deepseek-v4

https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4

DeepSeek-V4技术报告:

https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

主题:超长上下文|站长之家