![]()
最近,英伟达新一代芯片Rubin发布,参数很猛,但市场反应却没那么“炸”。
这事儿其实挺好理解——今天大家关心的已经不只是“芯片强不强”,而是更现实的问题:
算力这么贵,AI 到底怎么普及?
换句话说,AI 现在卡住的地方,越来越像不是技术,而是成本。
1)AI 这波热,为什么很多应用还在“烧钱”?
把话说得直白一点:很多 AI 产品之所以“看起来很火”,但商业上不稳,是因为它们一直在做一件很尴尬的事:
用户想要便宜,甚至免费;
你的每次回答、每次生成、每次推理,都在消耗真金白银。
而且这钱不是“服务器多买两台”就能解决的,它是结构性的:算力贵、电也贵、运维也贵,规模上去之后更贵。
于是就出现了一个行业现象:
上游卖硬件的赚得很确定,下游做应用的很多在硬扛。
这不是谁更努力的问题,是“算不过账”。
2)为什么说“算力价格必须打下来”?
如果算力一直贵,会发生什么?
AI 就会被锁在少数地方:大厂的数据中心、少数高客单价行业、少数能承担成本的公司。
这意味着 AI 永远只能是“精英工具”,很难变成“日用品”。
所以算力降价,本质不是慈善,也不是让利,而是一个更硬核的逻辑:
只有当“用 AI 的边际成本”足够低,AI 才能扩到更多场景里去。
你可以把它类比成:流量费从很贵变得很便宜之后,短视频、直播、移动支付才真正爆发。
技术一直在,但成本拦住了规模。
3)一个关键转折:推理开始比训练更重要
过去两年大家谈 AI,动不动就是“训练更大的模型”。
但产业真正走向普及,看的不是谁能训练最大模型,而是——谁能让更多人用得起。
这里有个非常重要的区别:
- 训练
:让模型变聪明,发生在少数公司、少数机房里;
- 推理
:让模型被使用,发生在每一次对话、每一次点击、每一次生成里。
训练像“造发动机”,推理像“发动机每天跑多少公里”。
决定规模的,往往是后者。
所以你会看到,新一代硬件特别强调推理效率、推理成本——因为接下来真正要拼的是:AI 的“日常使用量”。
4)算力便宜了,会不会反而“不需要那么多芯片”?
这也是常见疑问:效率提高了,是不是买得更少?
现实里,经常是反过来。
当一种通用能力变便宜,通常会发生两件事:
原本算不过账的场景开始落地(以前不敢用、用不起)
原本没想到要用的地方开始“到处都想用”
结果往往是:单次更便宜,总量反而更大。
因为“便宜”会把需求边界撑开。
当推理成本下降到某个阈值,AI 才可能真正进入这些地方:
手机、PC、家电(端侧)
汽车、机器人(实时)
大量中小企业的业务流程(规模化)
AI 想从“玩具”变“基础设施”,靠的就是这一步。
5)开源模型这件事,怎么看更像“生态打法”
很多人把开源理解成“情怀”,但在产业里它更像一种加速器:
开源让更多开发者更快做出应用;
应用多了,硬件的需求就更稳;
生态形成后,大家会围绕同一套工具链做优化,迁移成本自然上升。
这是一种很典型的路径:
先把用的人做多,再把生态做厚。
6)算力通缩,谁会难受?谁会舒服?
如果算力真的持续变便宜,行业会出现分化。
更难受的,通常是两类:
高价买了旧一代算力、资产折旧来不及的;
商业模式依赖“算力稀缺、价格坚挺”的。
更舒服的,往往是:
能把成本下降转化成产品体验提升的应用公司;
端侧 AI、机器人、自动驾驶、工业智能这类“需求真实但此前被成本卡住”的方向。
说到底,算力便宜并不会让每个人都赢,但它会让“能把技术变产品”的人更好活。
最后一句话
如果把这件事说得更“去滤镜”一点:
AI 下一阶段拼的不是谁喊得响,而是谁能把“算力降价”变成“用户愿意长期付费的体验”。
算力价格打下来,不是为了好看,是为了把 AI 从少数人的玩具,推向多数人的日用品。
*本文依据网络搜集数据整理,由AI工具辅助完成
All rights reserved. Copyright © 2026
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.