【亿邦原创】4月24日,被称为“AI圈最受期待的模型”DeepSeek-V4预览版终于正式上线并开源。这个发布窗口一再推迟的模型,在经历多次“跳票”后终于亮相,旋即引发行业广泛关注。
与市场此前盛传的“万亿参数”“原生多模态”不同,最终发布的DeepSeek-V4预览版,最核心的标签是“百万上下文普惠”,主打百万字(1M tokens)的超长上下文能力,在Agent执行、推理性能和世界知识等方面均实现显著提升。
模型分为两个版本:Pro版全面对标顶级闭源模型,Flash版是经济之选。
DeepSeek-V4最亮眼的不是它有多“大”,而是它通过技术创新把长上下文的门槛打了下来。结构上采用了全新的注意力机制,在token维度进行压缩,结合DSA稀疏注意力技术,实现了长上下文处理能力,同时大幅降低了对计算和显存的需求。即日起,1M上下文成为DeepSeek所有官方服务的标配。
性能表现上,DeepSeek-V4-Pro在数学、STEM、竞赛型代码的测评中,超越当前所有已公开评测的开源模型,“取得了比肩世界顶级闭源模型的优异成绩”。
在Agent评测方面,据介绍,目前DeepSeek-V4已成为公司内部使用的Agentic Coding模型,使用体验优于Sonnet 4.5,交付质量接近Opus 4.6的非思考模式。V4-Pro与V4-Flash均支持百万token超长上下文,API服务同步更新,接口兼容OpenAI ChatCompletions与Anthropic两套标准,开发者修改model参数即可调用。
定价层面,V4-Pro每百万token输入1元(缓存命中)或12元(缓存未命中),输出24元;V4-Flash分别为0.2元、1元、2元。
在V4发布前后不到一周的时间里,腾讯混元Hy3 preview和阿里Qwen3.6-Max-Preview也相继亮相,国产AI竞赛战事持续升温。
在此之前,Kimi于4月21日连夜开源Kimi 2.6,腾讯混元于4月23日发布并开源Hy3 preview,各家厂商的密集迭代被行业解读为围绕超级智能体入口的集体卡位布局。
DeepSeek-V4则在长上下文和推理性能上进一步拉大了开源模型的优势,同时沿袭其一贯的高性价比开源路线。中信证券研报认为,DeepSeek新一代模型有望与其他国产模型携手,驱动中国AI加速走向世界,同时模型训推进一步降本,更廉价的tokens将驱动全球大模型API调用量整体增加。
DeepSeek在发布时引用了一句古语:“不诱于誉,不恐于诽,率道而行,端然正己。”
从V2到R1再到V4,这个一贯低调的中国团队,用两个版本的模型、一套开源协议、三行API代码,再次把大模型的价格拉到了一个不可思议的区间。当百万上下文从“高端配置”变成“标配”,当顶级推理性能不再只属于闭源模型,AI应用的下一个想象空间,也许才刚刚打开。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.