4月24日,刚刚,DeepSeek正式发布并开源新一代大模型DeepSeek-V4预览版,同步上线官网及App,并开放API调用。
据介绍,该系列主打“百万字上下文(1M tokens)”能力,在Agent执行、推理性能和世界知识等方面实现显著提升。
![]()
DeepSeek-V4提供两种版本:
V4-Pro:性能对标顶级闭源模型,在Agentic Coding、数学与STEM推理等评测中达到开源模型领先水平,官方称其交付质量接近部分顶级闭源模型非思考模式。
V4-Flash:主打低成本与高响应速度,在保持接近推理能力的同时,提供更具性价比的API服务。
![]()
![]()
技术上,V4引入新的注意力机制与DSA稀疏注意力(DeepSeek Sparse Attention),通过token维度压缩显著降低计算与显存开销,使“1M超长上下文”成为默认配置。
在生态适配方面,DeepSeek-V4已针对多种Agent框架优化,包括代码生成、文档处理等典型场景。API层面兼容OpenAI与Anthropic接口,并支持“思考模式”与推理强度调节。
同时,DeepSeek宣布旧版模型接口(deepseek-chat、deepseek-reasoner)将于2026年7月24日停止服务。新模型权重已在开源社区发布,支持本地部署。(袁宁)
