![]()
作者:雨林 | 法学硕士
根据Anthropic公司此前计划,其向谷歌采购的庞大TPU算力集群将在2026年全面部署到位。这是一场与时间赛跑的基础设施冲刺——从芯片量产、服务器组装到数据中心构建与调试,一个超级AI算力体,正在紧锣密鼓地变为现实。
![]()
TPU,全称“张量处理单元”,是谷歌2015年专为AI计算从零设计的芯片。你可以把它想象成一个数学天才,特别擅长矩阵乘法这类AI核心运算。在很长一段时间里,这位天才却是个“偏科生”——它在推理任务上表现出色,但在更复杂的模型训练方面显得力不从心。业界普遍认为,TPU只能当配角,干不了重活。
直到Gemini大模型的横空出世,一切开始改变。Gemini2用上了第六代TPU,训练和推理首次全面打通。这个被称为“谷歌最强大模型”的系统,从训练到推理全流程都跑在谷歌自研的TPU上,证明了TPU不仅能做推理,更能承担最前沿的大模型训练任务。这就像一名田径运动员,原本只擅长短跑,突然在马拉松赛场上也打破了纪录。Gemini的成功,彻底改变了TPU的行业定位,它证明了TPU v4/v5系列芯片不仅能做某一环节,更能独立、高效地支撑从零训练一个顶尖大模型到实际部署服务的全过程。它不再是“专用加速器”,而成为了谷歌“全栈AI基础设施”。
过去,使用TPU有个很高的门槛——你得学习谷歌的JAX框架。这就像进入一个俱乐部必须说俱乐部内部的语言,对习惯了PyTorch和TensorFlow的开发者来说,成本太高。谷歌做出了关键转变:让TPU直接支持PyTorch,这是全球AI开发者最熟悉的框架。现在,开发者几乎可以“零成本”将原本为GPU编写的代码迁移到TPU上运行。
这一举措不亚于在英伟达的CUDA生态围墙上打开了一扇大门。CUDA曾是英伟达最坚固的护城河,数百万开发者基于它编写代码,形成了强大的用户惯性。生态的开放让TPU从谷歌的内部工具变成了行业公共选择。有消息称,连Meta这样的科技巨头也在考虑引入TPU,用于自建数据中心,因为“自建算力比云上更安全”。
谷歌的真正实力不在于单一技术突破,而在于构建了一个罕有对手能及的完整AI闭环。
这个闭环有三层:右手握着自研的TPU芯片,完全掌控算力成本和迭代节奏;左手打造Gemini系列大模型,作为技术输出的核心载体;顶层则是谷歌搜索、邮箱、YouTube等海量用户产品,提供了真实、即时的模型落地场景和反馈循环。这种闭环让谷歌能够以模型需求定义芯片设计,再以芯片效能反哺模型突破。当Anthropic这样的顶尖AI公司选择以百万量级大规模采购谷歌的TPU时,标志着市场开始认可这一闭环的产出。
最让英伟达紧张的是谷歌商业模式转变。过去,TPU“只租不卖”,只能通过谷歌云服务使用;现在,谷歌主动出击,直接向企业销售算力方案。这好比从前只出租厨房,现在连厨具也一起打包出售。
![]()
百万TPU芯片的订单像一记重拳,打在曾经看似铜墙铁壁的AI算力战场上,英伟达的统治地位正在受到多方面冲击。最直接的是分流核心客户。以前,英伟达的GPU凭借CUDA生态几乎垄断AI算力市场,现在一些大客户开始将部分订单转向TPU,分走了了英伟达的蛋糕。
价格体系也面临压力。TPU的高性价比——在某些场景下成本可低至GPU方案的1/4——迫使英伟达为留住大客户提供折扣。Open AI等公司因此获得了更强的议价能力。
更深层次的冲击在于改变了游戏规则本身。当TPU证明专用AI芯片能够端到端支持大模型全流程,市场的选择就不再是“是否用GPU”,而是“什么场景用什么芯片更优”。
英伟达的应对策略是强化其通用性和生态优势,通过NVLink技术、新一代Blackwell和Rubin架构维持领先。但一家独大的时代正在过去,多元算力的时代已然开启。
因此,这场始于芯片、升维于体系的对决,其真正的胜负并不在于一方取代另一方。当谷歌以TPU撕开缺口,市场便已告别英伟达的“单极时代”。未来的AI算力版图,注定是一场围绕不同场景、不同预算和不同技术信仰的“混合战争”。这种竞争,最终会将定价权逐步交还给市场,将创新节奏推向白热化,迫使每一位参与者亮出真正的底牌。而这,正是技术进步最好的催化剂。
作品声明:仅在头条发布,观点不代表平台立场
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.