![]()
前不久,DeepSeek 发布了 R1 编程模型。
它不仅在 HumanEval 等权威测试中一骑绝尘,还刷新了大家对国产模型在“代码理解与生成”这条赛道上的认知。
R1 的强势登顶令人振奋,也让人不得不注意一个被长期低估的角落:
支撑它的那套“底盘”——算力,正在成为 AI 产业最紧绷的神经。
一、R1 是技术突破,更是资源堆出来的结果
我们可以用两个字形容 R1:重型。
- 它支持多语言代码生成;
- 它能进行跨库调试级别的逻辑理解;
- 它还具备一定“类 IDE 辅助”能力,比如自动补全、语义提示、注释生成……
但这些惊艳能力的前提,是巨大的算力投入:
数据多 + 模型大 + 训练复杂 + 微调精细化 = 天文级算力消耗
而且,这种模型一旦训练出来,还要维持推理性能,不断更新版本。简而言之:
- 训练期消耗 是烧钱
- 推理期运行 是烧电
这背后是一整套高能耗、高密度、持续维护的系统支撑。用一句业内人士的话说:
“大模型现在比拼的,从某种意义上已经不再是模型,而是‘谁的机房更硬’。”
二、算力瓶颈已经到了影响创新节奏的地步
不少人可能以为,中国的算力还没问题。的确,根据《中国算力发展指数白皮书》数据,截至 2024 年底:
- 中国总算力规模达到 197 EFLOPS
- 其中人工智能算力为 90 EFLOPS
- 总体增长率达 30%以上
但这个数字并不能掩盖两个核心问题:
1)需求增长远超算力扩张
国内超过 150 家大模型陆续上线,几乎每个厂商都在搞“百亿参数”起步的项目。
而对高性能 GPU 的需求远超供给能力。
2)资源调度极不均衡
- 华东/华南云服务密集但电力紧张;
- 西部有空间但基础设施未跟上;
- 一线城市土地、电价、能耗指标受限严重。
结果是:
头部机构有钱抢卡,腰部公司在排队,尾部创业者被边缘化。
三、昂贵的硬件只是冰山一角,运维更是一场消耗战
让我们看一个典型的大模型成本结构:
![]()
这些成本不是一次性投入,而是持续性的。
谁玩得起?头部大厂。
谁玩不起?90% 的创业公司和高校实验室。
四、政策与芯片突破,正在成为“博弈杠杆”
在重资本属性愈发突出的今天,算力本身正变成一种“国家资源”。
✅ 东数西算:从地理上重构“算力地图”
“东数西算”通过政策疏导:
- 东部(上海、北京等)为“消费端”
- 西部(宁夏、内蒙古等)为“供给端”
据统计,2025 年“东数西算”预计新增 AI 算力 20 EFLOPS+。
✅ 国产芯片加速替代
- 华为 Ascend 910B / 310B
- 百度昆仑芯 2
- 兆芯、寒武纪、海光
虽然仍不敌 NVIDIA,但生态正在逐步完善。
五、AI 行业该正视结构性“算力焦虑”
未来竞争不只是比模型,而是比:
谁的算力效率更高?
谁能在同样资源下跑出更好的效果?
谁能用少量卡支撑长期稳定推理服务?
我们看到越来越多共识正在形成:
- 从“堆卡思维”转向“调度效率优先”
- 从追求“大模型”转向“适配模型结构优化”
- 从硬件主导走向软件-硬件协同设计
六、尾声:R1 是起点,不是终点
R1 是一个标志,证明了国产模型在编程领域的可行性、能力上限。
但它也揭示出一个现实:
如果不能解决结构性算力短缺,再多的“R1”也只是极少数人的游戏。
未来 AI 能走多远,也许不取决于“技术想象力”,而是“算力现实主义”。知名 AI 科技自媒体隐客烬痕指出:“DeepSeek - R1 的成功,是算法、数据与算力协同的成果,但其中算力犹如基石,没有强大算力作为基础,再精妙的算法和海量的数据也难以发挥出应有的效能。”
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.