![]()
作者:Ed Zitron
昨天早上,GitHub Copilot用户终于得到了一个确认:从2026年6月1日起,所有GitHub Copilot计划都将改为按用量计费(usage-based pricing)。
以前,微软会给用户一定数量的"请求(requests)"。现在,它要根据用户实际使用模型的成本来收费。微软把这称为"朝着一个可持续、可靠、面向所有用户的Copilot业务和体验迈出的重要一步"。
翻译一下:"我们不能再继续补贴GitHub Copilot用户的算力了。"
微软连续3年允许用户每个月烧掉超过订阅费本身的token成本。根据《华尔街日报》2023年10月的报道:个人用户每月为这款AI助手支付10美元。今年最初几个月,该公司平均每位用户每月亏损超过20美元。有些用户每月给公司造成的成本高达80美元。
GitHub Copilot用户正在反抗。他们说这个产品已经"死了",已经"彻底毁了"。
生成式AI的核心经济账已经坏了。按月订阅来销售由LLM驱动的服务,从来、从来就没有合理过。
微软——就像每一家AI公司一样——用一个不可持续的服务骗了自己的客户。因为用月费订阅来销售由LLM驱动的服务,从来、从来就没有合理过。
生成式AI订阅就像Uber每月向用户收20美元,然后允许用户坐100次车,只要每次不超过100英里都行;与此同时,汽油价格是每加仑150美元,而且油钱由Uber来付。
AI数据中心建起来很贵,运行起来也很贵,但实际收入很少。
根据TD Cowen的说法,每兆瓦数据中心容量需要约3000万美元的关键IT设备(GPU及相关硬件),以及1400万美元的数据中心容量成本。
每100MW数据中心容量需要约44亿美元投资,其中相当大一部分会花在NVIDIA GPU上。
每个AI数据中心一开始就背着数百万美元的坑。即便采用6年折旧周期,也需要很多年才能回本。而且由于NVIDIA的年度升级周期,等你完成第一份客户合同后,那些GPU很可能已经赚不了多少钱了。
目前还不清楚,除了OpenAI和Anthropic之外,AI算力是否真的存在足够大的客户群。OpenAI和Anthropic的需求占在建AI数据中心的50%。如果其中任何一家没有钱付款,就会形成巨大的系统性弱点。
为支撑正在建设的15.2GW AI数据中心,每年需要1568亿美元AI算力收入;如果支撑全部已宣布的114GW,则需要1.18万亿美元。
给你一点背景:CoreWeave是最大的"新云厂商",客户包括Meta、OpenAI、Google、Microsoft、Anthropic和NVIDIA。它营收约为51亿美元,并预计2026年收入为120亿到130亿美元。
生成式AI不盈利、不可持续,而且只会越来越贵。
尽管有多篇报道称OpenAI和Anthropic会在2028年或2029年实现盈利,但没人能解释它们到底如何真正盈利。尤其考虑到两家公司的利润率都低于预期。
LLM是宰客,客户一直被欺骗。订阅制AI服务是一种近乎欺诈的欺骗行为,因为它歪曲了核心单位经济模型。
OpenAI的CFO已经多次表示,她不认为OpenAI已经准备好IPO,并且对其增长和继续履行义务的能力有重大担忧。她担心如果收入增长不够快,公司可能无法支付未来的计算合同。
这是一个闪着红灯的警报。OpenAI的增长正在放缓,而这恰恰是它最需要加速的时候。它必须在2030年前把当前业务基本做大10倍,才能履行义务。
如果OpenAI到2030年底无法通过收入和融资筹到8520亿美元,它就无法支付Stargate数据中心费用。那会杀死Oracle股票的价值。
Larry Ellison已经质押了自己持有的3.46亿股Oracle股票——价值约615亿美元——用于担保某些个人债务。如果OpenAI无法付款引发Oracle股价暴跌,Ellison将不得不卖出股票,进一步引发更多追加保证金。
Ellison的未来,押在Sam Altman能否在4年内筹资并创造8520亿美元收入这件事上。
祝你好运,Larry!你真的会需要它。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.