![]()
2028年,OpenAI要在算力上花掉1210亿美元。这个数字是什么概念?够买下整个AMD还有余。更扎心的是,这还不是终点——Anthropic同期也要砸进数百亿。两家AI巨头的财报像一盆冰水:当训练成本被计入商品成本而非研发费用时,利润表瞬间变脸。软件行业玩了三十年的"轻资产高毛利"套路,在AI时代彻底失效。
软件神话的终结:从"写代码"到"建电厂"
传统软件公司的财务模型堪称完美。写一次代码,无限复制,边际成本趋近于零。Salesforce、Adobe、甚至早期的Google,都靠这个逻辑撑起了万亿市值。但AI公司正在经历一场残酷的财务重构。
OpenAI和Anthropic的财报披露了一个被刻意隐藏的真相:它们现在按两种方式报告盈利——剔除训练成本,和包含训练成本。前一种看起来像SaaS,后一种则暴露出血淋淋的资本密集型本质。训练成本不再是"研发支出",而是实打实的商品销售成本。
这种会计处理方式的转变,标志着AI从"软件产品"向"基础设施服务"的质变。类比的话,过去的软件公司像出版社,印一本书卖一万本;现在的AI公司像电厂,每发一度电都要烧煤。更麻烦的是,这煤还越烧越贵。
GPT-4的案例极具代表性。训练成本约1.5亿美元,但两年内的推理成本飙升至23亿美元——15倍的成本放大效应。软件行业的VC们从未见过这种乘法。他们的估值模型建立在边际成本递减的假设上,而AI正在反向操作:用户越多,烧得越狠。
推理吞噬一切:80%成本藏在"使用后"
行业普遍误判了成本结构。2026年,推理预计将占AI算力总消耗的65%;而在模型全生命周期中,推理成本占比高达80%-90%。这意味着什么?训练只是首付,推理才是房贷——而且利率还在涨。
这种成本结构的颠覆性,堪比汽车行业的"电动车转型"。传统车企卖车即结束,特斯拉却要为每一辆车的终身OTA、超充网络、自动驾驶算力持续买单。AI公司同理:每新增一个用户,不是多卖一份软件,而是多签一份长期运维合同。
OpenAI年收入约130亿美元,Anthropic约70亿美元。表面看增长迅猛,但对比估值——OpenAI 3000亿、Anthropic 1830亿——市销率分别高达23倍和26倍。这种估值隐含了一个危险假设:成本曲线会快速下降,或者收入会指数级增长。两个假设至少得对一个。
但成本曲线正在对抗摩尔定律。模型规模每18个月增长10倍,而硬件效率提升速度追不上需求膨胀。OpenAI的1210亿预算不是野心,是生存必需——不够算力,模型就会落后;够了算力,财务就会失血。
基建重力:四大云厂商6500亿的集体押注
AI正在压缩数十年的基建周期。1990年代电信泡沫,AT&T们花了十年铺光纤;2000年代云计算崛起,AWS用八年证明模式;而AI基建,全部要在三年内到位。
2026年,亚马逊AWS、微软Azure、Google Cloud、Meta四大 hyperscaler(超大规模云服务商)的资本开支预计超过6500亿美元。这笔钱流向三个方向:GPU集群、数据中心、能源设施。其中能源正在成为隐形瓶颈——一个大型AI数据中心的耗电量相当于中小城市,而电网扩容需要以年为单位。
这种"基建重力"正在重塑竞争规则。OpenAI和Anthropic的差异化路径清晰可见:前者同时押注消费端和企业端,后者专注企业API。但底层逻辑一致——谁掌握算力供给,谁才能定义模型能力。
历史正在押韵。1990年代的电信基建催生了思科、朗讯的辉煌,也以破产潮收尾;2000年代的云计算让AWS、Azure成为印钞机,但也淘汰了 Rackspace 等先行者。AI基建的终局只有两种剧本:硬件效率跑赢需求膨胀,赢家通吃;或者成本失控,行业大洗牌。
两种终局:效率革命,或血腥整合
Google的TPU(张量处理单元)和Nvidia的Blackwell架构,是行业押注的降本希望。但芯片迭代速度能否追上模型膨胀?TPU v5相比v4性能提升约2.5倍,而GPT-4到GPT-5的参数增长预期是10倍。这个缺口,只能靠堆量弥补。
更隐蔽的风险在于"推理优化"的瓶颈。模型压缩、量化、稀疏化等技术已经挖了不少潜力,但边际收益在递减。当技术优化触及物理极限,成本压力将向产业链上游转移——要么压榨芯片厂,要么压榨用户。
OpenAI的应对策略是垂直整合:从Stargate项目到自研芯片传闻,都在试图夺回议价权。Anthropic则选择绑定AWS和Google,用多供应商策略分散风险。两种路线没有对错,只有赌大小的区别。
一个被忽视的细节:两家公司的现金流结构。OpenAI的130亿收入中,API和企业订阅占比持续提升,这意味着客户正在从"尝鲜者"变成"重度依赖者"。这种锁定效应是双刃剑——客户越离不开,推理成本越刚性;但一旦服务中断或涨价,迁移成本也极高。
游戏的核心变量从未如此清晰:不是模型参数,不是论文引用,是每token(令牌)的成本曲线。当华尔街开始用"每美元智能"(intelligence per dollar)而非"准确率"来评估AI公司时,行业的估值逻辑已经完成切换。
6500亿的云厂商资本开支、1210亿的OpenAI算力预算、15倍的训练-推理成本乘数——这些数字勾勒出一个反直觉的结论:AI竞赛的赢家,可能不是最聪明的算法团队,而是最会算账的基建运营商。软件时代的英雄是产品经理,AI时代的英雄是首席财务官兼供应链总监。
最后一个值得玩味的信号:OpenAI和Anthropic都在财报中刻意区分"含训练"和"不含训练"的利润。这种披露方式本身,就是在教育市场接受新的估值语言。当投资者习惯了用"基建股"而非"科技股"的框架来定价,那些还在讲"轻资产平台"故事的AI公司,会不会成为第一批被挤出的泡沫?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.