昨天上午,我国AI大模型的先驱。 Deep Seek发布最新版本,同时引发了中美两国科技圈的巨震。
这次deep seek官方发布的文案并不长,但我依旧从中解读出了五大要点。
![]()
特别是后三条 一条高于一条,每一条都是在掀美国科技封锁与产业封锁的桌子。
第一要点,是deep seek最新版本v4主要性能参数,以及场景应用的优势。
首先是在推理性能方面,V4已经是当前开源大模型里,推理性能最优的存在。
其性能完全可以与当前西方世界,最顶级的闭源大模型 Gpt或者Gemini相比较。
在应用场景上,已经有大量员工用v4版本来进行ai编程。
程序员们反映,V4使用的体验,以及代码成品的交付质量,也都可以比肩西方最新更新迭代的 ai大模型。
接着是在知识储备上,因为西方的大模型学习周期确实比我们长,而且因为高端算力芯片对我国禁售,使得美国的顶级大模型在知识储备上确实优于我国。
但是中国大模型与美国大模型的竞争,是开源路线与闭源路线的竞争。
这次deep seek最新版本v4在知识储备上面,略逊于美国谷歌的Gemini。
但是在开源大模型领域,V4依旧做到一枝独秀。
第二要点,是这次deep seek版本更新的文案宣传,非常的理性和客观。
在 v4新版介绍中,并没有过多强调性能的世界第一或遥遥领先。
在中美ai大比拼中,我们自信的承认因为美国ai大模型学习的时间更久,同时美国对我国高端算力芯片的禁售,导致美国的gpt-5.5以及谷歌的Gemini Pro确实处在领先者位置上。
但我们中国ai在起步较晚的背景下,依靠更经济的路径,依旧追到了无限接近的位置。
这份不贬低对手,不吹嘘自己的从容与自信,更让西方感到颤栗。
![]()
第三要点,是deep seek独特的算力训练路径,差异化优势依旧全球一枝独秀。
这次最新版的v4,高达1.6万亿的参数,却只用了同行业大概1/4的 gpu芯片,以及10%的存储。
这既能够压缩我国ai大模型学习过程中的成本与时间,同时也降低了美国高端算力芯片对我国禁售的“卡脖子”能力。
第四要点,这次deep seek v4版本相比较其性能的先进性,更加鼓舞整个中国ai产业以及国产芯片产业的是,这次v4在芯片选择上,没有使用英伟达的芯片,而是使用了华为的昇腾系列国产芯片。
这既是deep seek的技术路线选择,也是中国ai大模型产业对美国政府发布高端芯片禁售令之后的集体亮剑。
相信有了 deep seek的探路成功,未来更多的Ai大模型企业都会转向国产芯片。
那么在“ai大模型学习”这个芯片需求最大的领域,一旦开启国产化替代,这对我国整个国产芯片产业未来数年都是一大利好。
第五要点,也是比国产芯片替代进口更加重要和更加提气的,是这次deep seek v4在技术路线上,底层架构的变更。
过去,无论是美国还是中国,几乎所有 Ai大模型公司做的技术研发,都是在英伟达的 CUDA架构上进行产品研发与迭代更新。
英伟达的CUDA架构,在ai领域的地位,就像当年的微软windows操作系统一样。
微软掌控了windows系统的垄断,以至于其余所有软件要应用在电脑上,就得基于 windows的架构上再进行适配性技术开发。
当前英伟达成为全球市值最高的科技公司,一方面是因为它掌握先进芯片的制造能力。
更大的原因,则是它CUDA的底层架构,成为所有ai科技公司的技术发展基石。
Deep seek这次的v4版本,却放弃了英伟达的CUDA架构,全面转向华为的 CANN架构。
可以说,这一次核心架构的转变,比单独硬件上换一个品牌芯片产生的影响更加深远。
Deep seek与华为架构的相互成就,也必将带动更多的中国ai大模型公司选用华为技术架构。
只有这样,中国AI科技公司才能够从根源上抛弃对英伟达的技术依赖,以及高端芯片依赖。
如果说,选用华为昇腾芯片替代英伟达的算力芯片,还只算是动了英伟达的“盈利蛋糕”。
那么弃用英伟达CUDA架构,改用华为 CANN架构,才是真正对美国在 ai技术领域封锁的“掀桌子”,甚至是“刨祖坟”!
为确保你能收到每一篇文章,请主页右上角设置加星
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.