这两天,AI圈又炸了。
不是什么新模型刷榜,也不是哪家大厂融资,是一条看起来有点"低调"的消息——
DeepSeek V4要来了。
而且,这次不一样。
![]()
01 真正的大事
4月8号,DeepSeek网页端悄悄上线了两个模式:"快速模式"和"专家模式"。
听起来好像就是个产品更新对吧?
但业内人都懂,这是在给V4铺路。
因为就在这两天,DeepSeek创始人梁文锋在内部透露:V4会在4月下旬正式发布。
万亿参数。
百万级上下文窗口。
这些数字听起来很吓人,但真正让我停下来想了一晚上的,是另一件事——
首次实现与华为昇腾等国产芯片的深度适配。
我再说一遍:首次。
02 等了多久
这个问题,可能很多人没有概念。
过去几年,中国AI公司训模型,基本只有一个选择:英伟达的CUDA生态。
你用国产芯片?可以,但适配成本极高,性能损耗巨大,最后还是得回到英伟达的怀抱。
这就是所谓的"卡脖子"——不是芯片造不出来,是你的芯片跑不动主流模型。
DeepSeek这次做的事,本质上是打开了一个缺口。
"去CUDA化"这个口号,喊了很多年,终于有人真的迈出去了。
而且不是玩票性质的兼容测试,是"深度适配"。
这意味着什么?
意味着以后训模型,国产芯片真的能用了。
03 大厂已经动手了
消息刚出来,阿里、字节、腾讯已经行动了。
据媒体报道,这三家预订了数十万片新一代AI算力芯片。
为什么这么急?
因为谁先拿到算力,谁就能先上线新模型。
而DeepSeek这次的"快速+专家"双模式,明显是在告诉市场:
我们准备好了。
快速模式适合日常对话,响应快,能识别图片和文件;专家模式擅长复杂任务,支持深度思考和智能搜索。
这说明什么?
说明DeepSeek正在构建一个完整的模型矩阵——
以后可能还会有更轻量的、更深度、更多模态的不同入口。
这不是一个模型发布,是一整个生态在成型。
04 更大的意义
说点更远的。
过去一年,中国AI最缺的是什么?
不是钱,不是人,是信心。
每次有新模型发布,总有人问:这是不是又套壳?能不能自主可控?国产芯片什么时候能用?
这些问题,DeepSeek V4给出了一部分答案。
万亿参数、百万上下文,这是硬实力的体现;
国产芯片深度适配,这是生态独立的开始。
当然,我说的是"开始",不是"完成"。
CUDA生态积累了十几年,国产芯片要追上,还有很长的路要走。
但至少,这条路现在有人走了。
05 写在最后
这几天我一直在想一个问题:
中国AI到底需要什么?
是更多的大模型吗?是更多的论文吗?是更多的融资吗?
可能都不是。
我们需要的,是一次次真实的、可验证的突破。
DeepSeek V4是不是这个突破?
现在下结论还为时过早。
但有一点是确定的:
每一次这样的尝试,都在把中国AI往前推一小步。
愿这些一小步,最终能汇聚成我们真正想看到的那个未来。
磨平一些信息差。
这好像,就是我为数不多能做的。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.