快速导读:FT爆料DeepSeek V4下周发布,支持图片、视频、文本生成。但评论区真正的争议不是“什么时候发”,而是这个模型到底跑在什么芯片上——华为和寒武纪。
该图片可能由AI生成![]()
FT的消息是这样的:DeepSeek V4下周发布,多模态,能生成图片、视频和文本。两个知情人士透露,DeepSeek已经和华为、寒武纪合作,把V4专门针对这两家的芯片做了优化。
![]()
后半句才是重点。
大多数人看到这条消息的第一反应是“又是下周”——Reddit评论区确实有人设了7天后提醒,还有人说“每周都报下周,总有一次是对的”。这种疲倦感可以理解,从R1发布之后,关于V4的传言没断过,但模型迟迟没来。
但如果V4是真的,它在华为Ascend和寒武纪芯片上跑起来这件事,比“能生成视频”本身更值得注意。
过去一年多,中国AI圈有一个默认逻辑:顶级开源模型的实际训练和推理,还是得靠英伟达,国产芯片是备胎,是合规需要,以防万一。DeepSeek当初也是靠A100起家的。如果V4真的不是“顺带支持”华为和寒武纪,而是针对这两个平台做了深度优化,那这个默认逻辑就开始松动了。
这不是一个工程细节。这是一个信号:中国最强的开源AI实验室,正在主动向国产硬件体系靠拢。
至于多模态生成——评论区有人泼冷水,认为FT搞混了“输入”和“输出”,V4更可能是支持图片视频输入,而非真正的生成。这个怀疑合理。但如果DeepSeek真的开源了一个能生成图像和视频的万亿参数模型,闭源厂商在这个能力上筑的墙,就算没倒,也得裂开几道缝。
现在的问题是:如果你在用API做产品,你的成本计算里,有没有算过“DeepSeek开源,对手把价格打到地板”这个情形?
简评:
真正的护城河从来不是模型本身,而是模型跑在谁的芯片上。DeepSeek和华为、寒武纪的合作,某种程度上比“能不能生成视频”更像一个地缘技术事件——这是两套平行AI基础设施开始各自闭环的具体一步。
ref: reddit.com/r/LocalLLaMA/comments/1rh095c/deepseek_v4_will_be_released_next_week_and_will
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.