刚刚,DeepSeek大升级,V 4真的不远了
刚刚,DeepSeek 大升级,V4 真的不远了|附体验细节
2026年04月08日 11:43
就在刚刚,DeepSeek 网页端迎来大更新。
没有发布会,没有 blog,甚至连一条官方推文都没有。DeepSeek 网页端的输入框上方多了两个图标——一个闪电,一个钻石,分别对应「快速模式」和「专家模式」。
悬停一下,提示语出来了:快速模式「适合日常对话,即时响应」,专家模式「擅长复杂问题,高峰需等待」。
目前从实测和网友拆解来看,两个模式的差异大概是这样的:
快速模式,可以识别图片和文件中的文字,速度快,响应即时。代价是,背后跑的大概率是一个更轻量的 V4 Lite 模型,但针对速度做了优化。
专家模式,疑似路由到了更大、更强的模型——很可能就是 DeepSeek V4 正式版的某个形态。但目前它不支持文件上传,也没有多模态能力。等等,更强的模型,反而功能更少?
我们也做了一轮简单测试。
比如让两个模式各自写一个 p5.js 程序,模拟球在旋转六边形内弹跳,要求受重力和摩擦力影响。结果很直观——专家模式给出的物理行为更符合直觉,落点更准,弹跳轨迹更真实。
这种差距,其实挺能说明问题的。物理仿真对数学推理能力要求高,弱一点的模型容易出现「看起来像物理但实际上不对」的结果。专家模式在这里的表现,是实打实的能力差异。
但网友让其制作的太空侵略者游戏结果却让人有点意外:专家模式的输出和快速模式差距并不明显。
做测试的网友给出了一个判断:「我估计专家模式现在路由的仍然是某个版本的 V4 Lite。要看到完整版 V4 在网页端上线,可能还得再等一阵。」换句话说,这次灰度上线的「专家模式」,未必就是最终形态。
创意写作方面,我给两种模式出了一道辩论写作题,题目是「替无聊辩护,论证无聊是现代人的奢侈品」。专家模式的输出更长,逻辑链更完整;快速模式的文风则相对自然朴实。
有意思的是,在这个任务上,两个模式的速度差距并不明显,甚至专家模式的思考时间更短。这有点反直觉,但可能和任务性质有关——创意写作对模型规模的敏感度,远低于数学推理类任务。
对于简单任务,两个模式差异有限;越是需要深度推理的场景,专家模式的优势越明显。
在数学逻辑题「绳子绕地球一圈,加长 1 米均匀撑开,缝隙多高?」中,尽管两个模式给出了相同的答案,但过程截然不同。快速模式的回答很简略;专家模式则一步一步拆解,每个推导环节都交代清楚,更接近「把思考过程写出来」这个指令要求。
值得一提的是,目前网页端实际上线的只有快速和专家两个模式,但此前的爆料显示,还有第三个选项正在路上——「Vision 模式」。
关注 DeepSeek 技术路线的 KOL Teortaxes 认为:把 Vision 单独列为一个类,是很不寻常的设计。他提到,DeepSeek 此前拒绝在网页端部署 DS-VL 系列,原因是「尚未成熟」。如果 Vision 模式真的上线,背后支撑它的,很可能已经是一个「完全功能化」的 VLM。
而 Teortaxes 在他的长评里,给出了一个更大胆的猜测——这个视觉模型,有可能不是常规的 VLM,而是某种「深度统一世界模型」,是 Janus 系列的下一步演化,或者其他更非传统的架构。
当然,这是他的猜测,要打折扣。但有一点是确定的:DeepSeek 在多模态方向一直都有所布局,或许只是差一个良好的时间窗口。而把快速、专家等入口摆在用户面前,背后其实是一个更值得关注的方向: