说句实在话,2026年刚拉开帷幕,ChatGPT刚好满三周岁,可AI圈早就没了前两年的狂热,反倒一片焦虑。
全行业都在一门心思抠“降本增效”——小厂砍算力预算,大厂缩研发团队,就连谈合作都先问“能省多少算力”。
就在这时候,新加坡国立大学校长青年教授、潞晨科技创始人尤洋,抛出了个灵魂拷问:给你300亿美元,再给半年时间,你真能训出比GPT-4强好几个档次的模型吗?
![]()
答案大概率是“不能”。尤洋在《智能增长的瓶颈》里直接点透:现在AI增长卡壳,根本不是算力不够,而是咱们用的技术套路,快“消化”不了猛涨的算力了。
这话通俗点说就是:你给模型喂了十倍的“饭”(算力),它却吸收不了,压根长不出十倍的“力气”(智能)。
你发现没,现在AI圈张口闭口就是“算力又翻倍了”,仿佛堆够算力就能搞定一切。赛迪顾问有组数据:2026年中国算力总规模要突破1200 EFLOPS,稳居全球第二,其中智能算力占比快到90%。
可能有人不懂1200 EFLOPS啥概念——阿里云早年建的张北超级智算中心,总算力才12 EFLOPS,能支撑大模型训练、自动驾驶研发,1200 EFLOPS就相当于100个这样的超算中心加起来,算力储备足得很。
![]()
可问题来了:算力堆上天,智能真能跟着涨吗?尤洋给了个超实在的判断标准:要是训练算力翻1000倍(从10^n变成10^(n+3)),能不能稳定训出明显更强的模型?现在的答案越来越模糊。
核心症结就俩:一是现有技术套路对新增算力的吸收效率越来越低,二是算力扩得越狠,通信、同步这些“额外开销”就越多,最后算力增长的收益全被抵消了。
我跟你讲,行内人都认FLOPS是最实在的算力指标,不像参数量、推理速度,能掺点商业水分忽悠人。
现在的困境就是,算力和智能的关联越来越弱,就像给植物施再多肥,根系吸收不了,最后还是长不好。
你堆再多钱买GPU,训出来的模型可能就多会了几个知识点,根本没实现智能上的大跨越。
![]()
这可不是空口白话。潞晨科技算过一笔账:满血版DeepSeek-R1每天输出1000亿token,光机器成本每月就4.5亿元,企业搞不好每月要亏4亿元,用户越多亏得越狠。现在算力成本像坐了火箭,可智能转化效率却在原地踏步,这就是AI圈焦虑的根源——大家都怕砸了钱,却只换来“算力浪费”。
![]()
尤洋直接点破了Transformer的成功秘诀:它能赢不是因为像人脑,而是它本质上是“伪装成神经网络的并行计算机”,跟英伟达GPU的“堆料逻辑”天生匹配。
过去十年AI能快速跃迁,说白了就是三方凑齐了“黄金组合”:GPU持续提供海量并行算力,Transformer能把这些算力全“吃进去”,再加上Next-Token Prediction这个“无限学习素材”的训练目标,三者缺一不可。
![]()
说句实在话,Mamba这类新架构,顶多是提升了“吞吐量”——简单说就是同等算力下能处理更多数据,解决的是“同等智能更便宜”的问题,可不是“花同样的钱能变更聪明”。
2025年11月开源的Kimi Linear就很能说明问题,它用3:1的混合架构,3个线性注意力层负责“跑得快”,1个全注意力层负责“记得准”,取长补短才在部分场景超越Transformer,这反而证明混合架构比单一新架构更靠谱。
![]()
现在行业的竞争焦点早就变了,从以前比“谁的模型参数量大”,变成了比“单位算力能产出多少智能”。光追求吞吐量没用,能把算力稳定转化成实实在在的智能,才是真本事。不少公司跟风用新架构,最后发现成本是降了点,可模型能力没提升,纯属白费功夫。
我跟你讲,破局的关键从来不是堆更多算力,而是找到更高效的“算力转化方式”——就像人要提升吸收效率,而不是光吃更多饭。尤洋提到的高精度计算、高阶优化器这些方向,现在已经有企业在落地实践,而且效果很明显。
2025年,深度求索的DeepSeek-V3用FP8低精度格式训练,直接倒逼10余家国产AI芯片厂商跟进,摩尔线程、寒武纪等都推出了原生支持FP8精度的产品。可能有人不懂FP8精度,其实它就是数据存储的“压缩格式”,既能省算力,又不会丢模型性能,相当于用更少的资源办更多的事。
![]()
这也证明,软件创新能反过来带动硬件升级,弥补国产芯片在单点性能上的差距,提升整体算力转化效率。
硬件层面,国产算力生态也在慢慢崛起。2025年上半年,本土AI芯片出货量突破60万颗,市场份额占到35%;加速计算服务器销量比2023年增长165%,2026年预计突破28万台。
寅谱计算推出的桌面超算Hilbert更有意思,它不靠堆芯片,而是通过系统级协同优化,实现了算力和能效的动态平衡,让中小公司不用花大价钱买GPU集群,也能用上高效算力,大大降低了算力门槛。
![]()
AI增长的瓶颈从来不是钱不够、算力少,而是现有技术套路消化不了算力。就算把300亿美元砸进去,没找对算力转化逻辑,最后也只能竹篮打水一场空。国产算力生态的崛起、混合架构的探索,已经指明了破局方向。别再一门心思死磕“降本”,聚焦如何把算力高效变成智能,AI才能突破天花板。毕竟用户要的是“更聪明的AI”,不是“更便宜的废柴”,这才是行业该有的清醒。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.