★ 设为星标 | 只讲人话,带你玩转AIGC。
昨天,全球最大的 AI 开源社区 Hugging Face(抱抱脸) 发布了他们中国开源系列的首篇文章:“DeepSeek 时刻”一周年。
![]()
图:Hugging Face 的文章
如果说 2023 年是“ChatGPT 时刻”,那么在 Hugging Face 的眼中,2025 年,无疑是属于中国开源 AI 的“DeepSeek 时刻”。
这篇报告不仅复盘了过去这一年中国 AI 的“狂飙突进”,更揭示了一个让无数开发者振奋的事实:攻守之势,已经异也。
我们一起来看看这篇有意思的复盘文章。
01 为什么是“DeepSeek 时刻”?
把时钟拨回到一年前,2025 年的 1 月。
当时,杭州的一家 AI 公司——DeepSeek(深度求索),扔出了那个后来改变一切的 R1 模型。
在 Hugging Face 看来,这不仅仅发了一个新模型,而是中国 AI 发展史上的一个分水岭。
因为数据记录下了一个历史性的转折点:这是中国开源模型,第一次真正杀进全球主流排行榜。
而且这一进就收不住了。
R1 迅速超越了 Llama 等西方顶流,成为了 Hugging Face 历史上获赞最多的模型。
看看现在的榜单,曾经被美国开发者的名字霸屏的时代,终结了。
![]()
图:获赞最多的模型
在随后的一整年里,R1 更是成了全球 AI 界的“度量衡”:任何新模型发布,都要拿来跟它比一比。
它不再是追随者,它成了标杆。
报告中有一段非常精彩的论述:
“R1 的发布给了中国 AI 发展最宝贵的东西:时间。”
在此之前,很多企业在“开源还是闭源”之间摇摆不定,受困于算力瓶颈。
但 R1 的出现,用事实证明了:即便算力有限,只要路线对、迭代快,中国依然可以弯道超车。
Hugging Face 总结了 R1 扫清的三个“障碍”:
技术门槛碎了: 公开推理路径,把“推理”变成了人人可用的工程模块。
应用门槛碎了: MIT 协议一出,直接商用,大家不再卷跑分,开始卷落地。
心理门槛碎了(这点最关键): 报告用了 "Psychological" 这个词。翻译成大白话就是:中国开发者的“心魔”破了。 我们不再问“能不能做?”,而是开始问“怎么做得比别人好?”。
我们中国人说,破山中贼易,破心中贼难。
这种自信的回归,才是“DeepSeek 时刻”真正的灵魂。
02 被“倒逼”出来的黄金时代
R1 点了一把火,随后的 2025 年,中国 AI 界发生的事情,被 Hugging Face 称为“有机的生态爆发”。
这篇报告不仅夸了 DeepSeek,更点名表扬了百度、腾讯、字节、阿里等大厂。
数据显示,百度在 HF 上的发布数量从 0 飙升到 100+,其他大厂也是数倍增长。(阿里、字节发布数量翻了 8~9 倍)
![]()
图:HF 统计的中国公司的模型仓库增长情况
而 Kimi K2 的发布,更是被誉为“另一个 DeepSeek 时刻”。
更狠的还在后面。
这些模型发出来不是当摆设的。报告显示,在所有发布不满一年的新模型中,中国模型的总下载量已经超越了包括美国在内的任何其他国家。
![]()
图:中国模型的下载数量超过了任何其他国家
智谱 AI(Zhipu AI)的 GLM、阿里的 Qwen,已经不满足于发发权重了,他们开始构建完整的工程系统和接口。
每周 Hugging Face 上“最受欢迎”和“下载最多”的榜单里,中国模型几乎成了常驻嘉宾。
![]()
图:中国开源模型热力图
这里有一句非常有意思的评论:
“中国玩家们的协同,不是靠签协议,而是靠‘制约’。”
什么意思?就是说在同样的算力限制、合规要求和成本压力下,大家“被迫”默契地走上了同一条高效的工程化道路。
这听起来有点“内卷”的苦涩,但数据证明:这种高强度的竞争,卷出了一个生命力极强、甚至开始反超美国的生态。
我们不仅在发模型,更是在定义标准。
03 全球反转:现在,轮到西方“找替补”了
文章最让我感到魔幻现实主义的部分,是关于全球反应的描述。
曾几何时,我们是西方的学徒。但“DeepSeek 时刻”一年后的今天,世界变了。
这种变化,连大洋彼岸的巨头都坐不住了。
就在上周,微软(Microsoft) 发布了《2025 全球 AI 普及报告》,将 DeepSeek 的崛起列为 2025 年“最意想不到的发展之一”。
微软在这份报告里揭示的数据,非常让人意外:
在非洲:DeepSeek 的使用率是其他地区的 2 到 4 倍。
原因很简单:免费、开源。它没有昂贵的订阅费,也不需要信用卡,彻底打破了硅谷设下的“付费墙”。
在被西方忽略的角落:数据显示,DeepSeek 在国内份额高达 89%,在白俄罗斯达到 56%,在古巴也有 49%。
![]()
图:DeepSeek 全球市占率分布
微软不得不承认一个扎心的事实:AI 的普及不仅仅取决于模型有多强,更取决于谁能用得起。
这种“农村包围城市”的胜利,让西方开发者彻底破防。
Hugging Face 报告指出,现在许多美国初创公司已经默认使用中国开发的模型作为基座。
甚至出现了“套壳”反转:美国发布的 Cogito v2.1(号称领先的开放权重模型),其实就是 DeepSeek-V3 的微调版。
甚至有一个美国的项目叫 ATOM (American Truly Open Model),他们的立项动机竟然是:“看到 DeepSeek 和中国模型太强了,我们必须奋起直追”。
看到这里,我真的忍不住想笑。曾几何时,这是我们的台词啊。
04 暴风雨前的宁静:DeepSeek 的“疯狂一月”
如果你以为 DeepSeek 在发完 R1 后就躺在功劳簿上睡大觉,那你就大错特错了。
就在 DeepSeek 时刻一周年即将到来的这段时间(从元旦开始),这家公司的一系列“反常”动作,让敏锐的技术圈嗅到了一丝暴风雨将至的味道。
动作一:清理“技术债”,R1 论文一夜暴涨 60 页
就在不久前,有开发者发现 DeepSeek 悄悄更新了那一年前发布的 R1 论文。
这一更不得了,页数直接从 22 页暴涨到了 86 页!
他们把过去这一年里所有的训练细节、失败尝试、甚至那些不为人知的“坑”,全部毫无保留地补全了。
这在行业里通常只有一个解释:这一页翻篇了,我们要去搞更牛的东西了。
动作二:底层架构大换血
紧接着,DeepSeek 密集甩出了两篇重磅新论文:《mHC》和《Engram》。
看不懂没关系,你只需要知道这两篇论文想干什么——他们在试图重写大模型记忆和思考的方式。
特别是 Engram,它想让模型拥有“即时查阅记忆”的能力。
这意味着,未来的模型可能更小、更快,但更聪明。
动作三:GitHub 里的神秘代码“MODEL1”
昨晚又引起大家关注的,是眼尖的网友在 DeepSeek 更新的 GitHub 代码库里,扒出了一个疑似新模型的代号——“MODEL1”。
![]()
图:DeepSeek 代码库泄露的 MODEL 1
这个不起眼的变量名,现在已经被各路大神盘包浆了。
大家都在猜,这会不会就是传说中即将要在春节期间发布的 DeepSeek V4?
“DeepSeek 的每一次沉默,通常都意味着一次更大的爆发。”
种种迹象表明,2026 年的春节,大概率又不会平静了。
Hugging Face 这篇报告的结尾,预测 2026 年将会有更猛烈的爆发,尤其是在架构和硬件的选择上,中国公司将继续通过开源生态施加影响。
回顾这魔幻的一年,从 DeepSeek R1 的惊天一雷,到百模大战的全面开源,再到如今 Hugging Face 官方以“DeepSeek Moment”为题来记录历史。
这不仅仅是技术的胜利,更是开源精神在东方的胜利。
我们不再是跟随者,我们已经坐在了牌桌的主位。
2026,好戏才刚刚开始。
参考资料:
https://huggingface.co/blog/huggingface/one-year-since-the-deepseek-moment
https://www.microsoft.com/en-us/research/wp-content/uploads/2026/01/Microsoft-AI-Diffusion-Report-2025-H2.pdf
今日互动:
你觉得“DeepSeek 时刻”给你的工作或生活带来了什么改变?
欢迎在评论区留言,我们一起见证历史。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.