DeepSeekV4发布 创新引领未来
“不诱于誉,不恐于诽,率道而行,端然正己。”
在DeepSeek V4预览版本上线当天,DeepSeek官方团队表示感谢每一位用户的信任与支持。用户的肯定、建议和期许是他们不断探索和进步的动力,也让他们始终坚守初心,专注于不懈的创新。DeepSeek承诺将秉持长期主义的原则理念,在尝试与思考中踏实前行,努力向实现AGI的目标不断靠近。
这些表态似乎也是对近期传言的回应。4月24日,全新系列模型DeepSeek-V4的预览版本正式上线并同步开源。DeepSeek-V4拥有百万字超长上下文热点话题,在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先。该模型分为两个版本:deepseek-v4-pro和deepseek-v4-flash。API服务已同步更新,通过修改model_name为相应的版本即可调用。
相比前代模型,DeepSeek-V4-Pro的Agent能力显著增强,在AgenticCoding评测中已达当前开源模型最佳水平,并在其他相关评测中同样表现优异。目前DeepSeek-V4已成为公司内部员工使用的AgenticCoding模型,据评测反馈使用体验优于Sonnet4.5,交付质量接近Opus4.6非思考模式,但仍与Opus4.6思考模式存在一定差距。此外,DeepSeek-V4-Pro在世界知识测评中大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro超越了所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的成绩。
相比之下,DeepSeek-V4-Flash在世界知识储备方面稍逊一筹,但展现出接近的推理能力。由于模型参数和激活更小,V4-Flash能够提供更加快捷、经济的API服务。在简单任务上,DeepSeek-V4-Flash与DeepSeek-V4-Pro旗鼓相当,但在高难度任务上仍有差距。
值得注意的是,DeepSeek-V4开创了一种全新的注意力机制,在token维度进行压缩,结合DSA稀疏注意力(DeepSeekSparseAttention),实现了全球领先的长上下文能力,并且大幅降低了对计算和显存的需求。从现在开始,1M上下文将是DeepSeek所有官方服务的标配。DeepSeekV4发布 创新引领未来