网易首页 > 网易号 > 正文 申请入驻

亚马逊又拿到船票了,这次是芯片

0
分享至



“我们的芯片业务火热。”

这句话既不是出自英伟达、英特尔,也不是谷歌、微软,而是来自于亚马逊CEO安迪·杰西(Andy Jassy)最新的股东信。

他还补充到,Trainium芯片的需求正在爆发。

这听起来多少有点反直觉。

因为过去一段时间,你听到的亚马逊,大概率不是这个故事。

你听到的应该是亚马逊如何裁员,是自由现金流被AI基建吞掉,是AWS增速被质疑,是它和甲骨文一起被放进了“AI包工头”那一拨里。

在很多人的印象里,亚马逊根本就不是一家站在AI潮头的公司。

模型这边,OpenAI有ChatGPT,Anthropic有Claude,谷歌有Gemini。如果我问你亚马逊最强的模型叫什么,很多人可能还真得先搜一下。

但在大家没怎么注意的地方,亚马逊其实已经暗度陈仓了。

在这封股东信里说写到,AWS的AI业务年化收入已经超过150亿美元。

更关键的是,包含Graviton、Trainium和Nitro在内的亚马逊自研芯片业务,年化收入已经超过200亿美元,而且还在以三位数同比增长。

安迪表示,如果把这块业务单独拆出来,像英伟达、英特尔那样直接向第三方卖芯片,它的年化规模大约可以达到500亿美元。

这个规模就不能再管它叫“内部降本工具”了,这是一块真正长出来的新业务。

更重要的是,亚马逊现在不是只做芯片。它有底层芯片,有数据中心,有AWS,有Bedrock,有Anthropic这样的深度绑定客户,也有OpenAI、苹果这些外部大客户。

换句话说,虽然模型本身没那么亮眼,不过亚马逊的确是一家全栈AI公司了。

微软还在OpenAI、Copilot、Azure和Maia之间摸索主轴,但亚马逊的方向反而越来越清楚。

让AI尽可能跑在AWS上,尽可能消耗AWS自己的芯片,最后把AI时代的利润率和控制权重新抓回自己手里。

所以我才觉得,芯片正在成为亚马逊的“AWS”。

就比如Anthropic,现在他们的Claude模型,全都已经在亚马逊的芯片上跑过了。

为了吃定Anthropic这个大客户,亚马逊还专门建了一个AI算力集群,叫Project Rainier。

这个集群是全球已知最大的非Nvidia算力集群之一,仅印第安纳州New Carlisle这一处园区,当时就已经部署了大约50万颗Trainium2芯片。

到2025年底,规模已经扩大到100万颗芯片。而这些芯片存在的目的就一个,跑Claude。

亚马逊都这么客气了,Anthropic自然也得礼尚往来,后者直接参与了亚马逊Trainium3芯片的设计工作。

以前都是芯片公司有什么芯片,AI公司才能训练怎样的模型。现在反过来了,AI公司开始教云厂商怎么造芯片。

问题也随之而来。亚马逊为啥非要自己造芯片?它真的是为了挑战英伟达,还是只是想把AWS的利润率再抬高一点?

归根结底,亚马逊造芯片这件事,表面看是个硬件故事,但你只要往深处看,就会发现还是亚马逊那套平台逻辑,把别人的增长,变成自己的基础设施收入。

01

一场从2015年开始的豪赌

Annapurna Labs成立于2011年,然后他们就一直处于隐身模式。

这家公司由三位工程师创立,他们采用了一种很叛逆的设计理念,从云计算、数据流量、实际需求倒推回去,再设计芯片。这种反向思维方法,恰好与亚马逊的工作方式完全契合。

2015年初,亚马逊以3.5亿美元收购了一家以色列芯片创业公司Annapurna Labs。



没有新闻发布会,在亚马逊的财报中,也只有一条简短声明。当时所有人都觉得,这只是亚马逊众多投资中不起眼的一笔。

收购完成后,亚马逊并没有急于推出产品。Annapurna Labs的团队先是参与了AWS相关项目,后来开始给Nitro System的底层做硬件设计。

Nitro System是AWS的一套云基础设施底层架构。它是把原来由服务器主CPU和传统虚拟化软件负责的很多事情,拆出来交给专门的硬件去做。

Annapurna Labs就是负责来设计这个硬件。

有一说一,这只是小打小闹,或者你可以直接理解为Annapurna Labs在融入亚马逊这个大家庭之前的一次团建,真正的故事要从2018年开始讲起。

3年之后,AWS推出了Inferentia,这是一款专门用于推理的机器学习芯片。

亚马逊认为,与训练相比,推理任务对芯片的要求略低,更容易切入。这属于人之常情,很多国内做AI芯片的厂商也秉持着相同的想法。

2019年,搭载Inferentia芯片的Inf1实例正式上线。

这玩意到底性能如何呢?亚马逊之前有一套搭载英伟达T4 GPU的云服务器,主打图形渲染、视频处理和机器学习推理。

Inf1比G4多了最高3倍的吞吐,每次推理成本最多低40%。

但是,Inf1在市场上却没什么声量。原因在于它是专门为推理场景做了优化,特别适合用来做推荐系统、图像识别、语音识别、NLP推理这些。

可问题就在于,亚马逊的整个芯片生态刚起步,你想用Inf1,就必须得用亚马逊自己的AWS Neuron SDK。

这个SDK的框架虽然支持TensorFlow/PyTorch/MXNet,但兼容性和成熟度远不如英伟达的CUDA。并且早期编译器限制很多,比如控制流、模型大小、BERT序列长度等都有约束。

所以Inf1更像是个概念产品,只是给市场打了个样,亚马逊自己也深知这一点。

不过Inf1的表现还是超出了亚马逊的预期,于是接下来,亚马逊开始高歌猛进。

2021年,AWS正式发布了首款面向客户用于训练AI模型的芯片Trainium。训练芯片的技术难度远高于推理芯片,第一代Trainium基于7纳米工艺,拥有约550亿个晶体管,于2022年开始为EC2 Trn1实例提供算力。

亚马逊表示,在特定工作负载下,Trainium的每token成本比A100集群低54%。对于GPT类模型,Trainium的吞吐量与A100相当,但成本只有一半左右。

2023年底,亚马逊在re: Invent大会上发布了第二代Trainium2芯片。这款芯片采用5纳米工艺,计算核心数量是第一代的4倍,训练速度提升4倍,内存容量显著增加。

Trainium2针对生成式AI训练做了专门优化,支持结构化稀疏性,能够更高效地处理大语言模型的训练任务。且相较于基于H200/H100的同类云配置,价格性能可再提升30%到40%。

2024年12月,亚马逊在re: Invent大会上首次公布了新一代Trainium3芯片。这是AWS首款采用3纳米工艺的AI芯片。

到2025年底,Trainium3被正式集成到Trn3 UltraServer中,每台服务器搭载144颗芯片,提供362 petaflops的总算力。这些服务器采用液冷技术,能效比前代提升约4倍。

AWS表示在部分训练和推理场景下,客户可将成本进一步压低至英伟达GPU方案的一半左右。

从2015年到2026年,亚马逊在芯片业务上的投入是渐进式的,因此越后面投入越大。

2025年,亚马逊的资本支出达到约1250亿美元,其中绝大部分流向AI所需的数据中心、电力和芯片。

2026年,这个数字预计将达到2000亿美元,比分析师预期高出近40%,也超过了谷歌宣布的1850亿美元上限。

02

亚马逊的芯片为啥能卖出去?

钱,不能只花不赚。

前文提到亚马逊芯片业务的年化营收已超过200亿美元,是这个数字包括Graviton处理器、Trainium训练芯片和Nitro网络芯片的总收入。

这封信还透露,如果芯片业务作为独立公司运营,像英伟达或英特尔那样直接向第三方销售芯片,年化营收规模可达500亿美元。

Graviton本质上就是Annapurna Labs开发的一款Arm服务器CPU,用来替代英特尔和AMD那类传统x86处理器,负责跑Web服务、数据库、容器和各种企业应用。

你可能要问了,那为啥要有这玩意呢?我用英特尔的CPU不行吗?

AWS上有大量的工作负载,其实根本不需要GPU,也不需要什么AI芯片,这些东西吃的就是最普通、最稳定、最长期的服务器CPU算力。

对这些常见的工作负载来说,Graviton更便宜、更省电,还更容易推广。

目前,亚马逊的芯片主要通过AWS以租用形式提供给客户,而不是直接销售硬件。客户购买的是EC2实例的计算能力,背后可能是Graviton、Trainium或Inferentia芯片。

这种商业模式与传统芯片厂商完全不同,倒是和网上一些租显卡的个体户很像。

从后来的结果看,Graviton也确实成了亚马逊自研芯片里最早跑通商业闭环的产品。它不像Trainium那样需要客户重写大量训练流程,也不像Inferentia那样强依赖特定推理场景。

在AWS弹性计算产品的1000个最大客户中,超过90%正在使用Graviton芯片。AWS还披露,有超过5万名客户在使用Graviton。知名企业如苹果、SAP、Pinterest、Datadog都是Graviton的用户。

所谓一分钱难倒英雄汉,很多公司迁移到Graviton,就是因为它便宜、稳定,而且迁移成本低。

Graviton先帮亚马逊证明了一件事,只要价格便宜,客户并不介意自己用的是什么芯片。

而这件事一旦被证明,Trainium和Inferentia后面的故事才真正有了继续讲下去的底气。

Trainium和Inferentia的客户就相对少一些,它们最大的客户是Anthropic。

2024年底,Anthropic宣布了Project Rainier,将使用一个拥有近50万颗Trainium2芯片的算力集群训练Claude模型,文章开头我就提到了。

这个集群在2025年投入使用,是当时世界上最大的机器学习训练集群之一,算力是Anthropic之前使用集群的五倍以上。

2025年,OpenAI先与AWS达成了规模达380亿美元的长期云合作承诺。到了2026年2月,亚马逊又宣布向OpenAI投资500亿美元,并确认OpenAI将通过AWS基础设施消耗约2吉瓦的Trainium计算容量。



考虑到Anthropic和亚马逊自己的Bedrock服务已经使用了大量Trainium芯片,亚马逊竟然还能腾出手接下OpenAI这笔大单子,可见当时的亚马逊已经All In芯片了。

除此以外还有苹果,它们的搜索产品采用了Graviton 4和Inferentia 2,机器学习推理工作负载的效率提高了40%以上。苹果还在早期阶段测试Trainium 2,初步结果显示,在Trainium 2上对模型进行预训练,效率将提升50%。

然而正当亚马逊以为自己的芯片功法就要炼成的时候,有人给他们泼了一盆冷水。

2025年7月,一份亚马逊内部标注为“机密”的文档显示,AI初创公司Cohere发现Trainium 1和Trainium 2芯片的性能“不及”英伟达的H100 GPU。

开发了Stable Diffusion的图像生成公司Stability AI也得出类似结论,认为Trainium 2在延迟方面表现不佳,使其在速度和成本上“竞争力较弱”。

新加坡AI研究机构AI Singapore的测试表明,配备英伟达GPU的AWS G6服务器在多个使用场景下的成本性能都优于Inferentia 2。

亚马逊对此回应称,这些反馈“并非当前情况”,Trainium和Inferentia已经在Ricoh、Datadog、Metagenomi等客户那里取得了“出色成果”。

03

云巨头造芯片

尽管如此,需求仍在快速增长。

亚马逊的股东信中透露,两家大型AWS客户曾要求购买2026年所有的Graviton实例容量,但亚马逊因需要照顾其他客户的需求而婉拒了这两笔大单子。

AWS在2025年新增了3.9吉瓦的电力容量,预计到2027年底总电力容量将翻倍。

亚马逊造芯片的故事,从2015年的一笔低调收购,到2026年成为年化200亿美元的业务,用了11年时间。



你要非得说这个增长多高多快,那也未必见得,但至少说得过去。问题就在于,这条路能走多远,能否真正复制AWS的成功。

亚马逊造芯片的核心逻辑很简单,降低成本,提高利润率。但这个逻辑能否成立,取决于三个问题:芯片真的更便宜吗?客户愿意为此付出迁移成本吗?多久能收回投资?

首先,客户需要使用AWS的Neuron SDK对代码进行适配。

Anthropic的工程师透露,将训练流程迁移到Trainium3大约需要三周时间,这比早期几代定制芯片所需的数月时间大幅缩短,但仍然是一笔不小的工程投入。

其次,不是说所有的模型架构它都能用Trainium来跑。

有些架构需要CUDA进行特定操作,而且一些公司它是财大气粗的类型,要求算力必须达到极限,而这时候,仍然只能使用英伟达的产品。

如果把视角再往外拉一点,你会发现亚马逊对芯片这件事的执念,其实也和它自己在AI战场上的尴尬处境有关。

我就举一个例子,如果问你,亚马逊的模型是啥,你如果不去搜索,能立马回答得上来吗?

亚马逊不是没做模型,相反,它很早就布局了自己的Titan模型家族,后来又推出了Nova,想把文本、图像、视频这些生成能力都补齐。

后面还有覆盖消费端到企业端的各种AI产品,比如Bedrock、Q,再到升级版Alexa。

问题在于,亚马逊每一步都跟着掺和了,但是每一步都没有让客户们满意。这就导致亚马逊在AI产业上面掉队了。

除了亚马逊,云巨头也都在重塑AI芯片市场。

谷歌的TPU已经迭代到第五代,微软也在开发自己的AI芯片Maia。

谷歌虽然不直接卖TPU,不过好歹还建了个云平台,对外销售TPU的算力。微软倒好,这个Maia就从来没有对外放出来过。

然而Maia的现状,并不乐观。

2023年的时候,微软本想用Maia 100来跑OpenAI、Copilot这些大模型,但等产品刚开始部署的时候发现,Maia 100的算力远远不够支撑当时的ChatGPT,所以OpenAI也只能选择英伟达。

2025年,微软下一代Maia被爆出难产,因此其量产时间从2025年推迟到了2026年,原因包括设计中途变更、团队流动和工程推进不顺,而且按当时外媒透露的消息,新Maia的性能也比不上英伟达刚刚发布的Blackwell。

到了2026年1月,微软总算是正式拿出了采用3nm工艺的Maia 200,但它的定位是推理,并不能像英伟达的GPU一样用来训练大模型。

然而市面上已经充满了替代产品,微软不仅技术上没有领先,就连产能和铺设速度也比不过亚马逊和谷歌,这就导致微软的Maia没能掀起什么风浪。

未来的AI芯片市场可能会分化为两个层次,一个是英伟达、AMD主导的通用市场,另一个是云巨头各自的封闭生态。

对于初创公司和中小企业来说,选择哪个云平台,就意味着选择了背后的芯片架构。如果深度依赖AWS的Trainium,将来迁移到其他平台的成本会非常高。

亚马逊以前掉队了,所以它才想要去锁定中小企业未来,指不定能在AWS上再养出来几个OpenAI、Anthropic这样的企业。

但从另一个角度看,云巨头的自研芯片也在推动整个行业的进步。英伟达之所以能够长期维持高利润率,部分原因是缺乏有效竞争。

当亚马逊、谷歌、微软都开始自己造芯片,就会去倒逼英伟达降价、加快迭代。

最终受益的是整个AI行业。

亚马逊造芯片能否成为下一个AWS,取决于如何定义“成功”。

如果成功意味着像AWS那样创造一个全新的行业,改变整个科技生态,那么显然,它并不能成为下一个AWS。芯片行业已经存在了几十年,亚马逊不是在创造新市场,而是在重新分配现有市场的份额。

但如果成功意味着建立一个可持续的、有竞争力的业务,为AWS提供成本优势和战略控制权,那么亚马逊已经在这条路上走得很远。

200亿美元的年化营收,90%以上的头部客户采用率,Anthropic和OpenAI这样的标杆案例,这些都足以证明Trainium的成功。

更重要的是,当你拥有从芯片到数据中心到软件平台的完整堆栈,你就可以针对特定工作负载进行端到端的优化,这是购买通用芯片无法实现的。

从这个意义上说,亚马逊造芯片的故事,不是关于能赚多少钱,而是关于谁掌握控制权。

在AI时代,算力就是石油,谁控制了算力的生产和分配,谁就掌握了未来。

亚马逊不想把这个控制权完全交给英伟达,就像它当年不想把云基础设施的控制权交给英特尔一样。

就算到最后,Trainium不能与英伟达平起平坐,它也已经证明了云巨头有能力挑战芯片巨头的垄断地位。这本身也是一种成功。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
两次穿刺都阴性?上海爷叔终确诊!还有一家4个男人全确诊!医生提醒:六成患者初诊已是中晚期

两次穿刺都阴性?上海爷叔终确诊!还有一家4个男人全确诊!医生提醒:六成患者初诊已是中晚期

新民晚报
2026-04-13 15:12:19
不到一个停车位大?清朝花15英镑买下的英国土地,今天仍属中国!

不到一个停车位大?清朝花15英镑买下的英国土地,今天仍属中国!

丁丁鲤史纪
2026-04-01 15:47:56
国运又来了,储量相当于煤炭4亿倍,中国地底深处藏着超级能源库

国运又来了,储量相当于煤炭4亿倍,中国地底深处藏着超级能源库

丁丁鲤史纪
2026-04-13 15:21:06
A股:刚刚,大消息传来,释放一信号,周二将迎来更大级别的转变

A股:刚刚,大消息传来,释放一信号,周二将迎来更大级别的转变

另子维爱读史
2026-04-13 17:05:10
苹果把这价格藏了3天,用户发现后集体懵了:M5 Air 6500到手

苹果把这价格藏了3天,用户发现后集体懵了:M5 Air 6500到手

薛定谔的BUG
2026-04-13 16:35:09
年薪2000万欧元!菲力克斯“大腿级”发挥,22球15助攻带C罗争冠

年薪2000万欧元!菲力克斯“大腿级”发挥,22球15助攻带C罗争冠

篮球看比赛
2026-04-13 10:55:31
马未都:香港宁愿要20万菲佣,也不接受内地保姆,原因很简单

马未都:香港宁愿要20万菲佣,也不接受内地保姆,原因很简单

谈史论天地
2026-02-19 12:44:34
空乘人员和郑丽文同框出镜,真是太美了!

空乘人员和郑丽文同框出镜,真是太美了!

达文西看世界
2026-04-12 09:39:42
曾志伟73岁大寿席开60桌,子女齐聚罕见同台,邱淑贞穿着素雅现身

曾志伟73岁大寿席开60桌,子女齐聚罕见同台,邱淑贞穿着素雅现身

阿纂看事
2026-04-13 15:49:54
太准了!女人一见“心动男人”,藏不住的6个生理反应,骗不了人

太准了!女人一见“心动男人”,藏不住的6个生理反应,骗不了人

风起见你
2026-04-13 21:32:34
西班牙首相和夫人逛北京什刹海,夫人穿七分裤超精致优雅

西班牙首相和夫人逛北京什刹海,夫人穿七分裤超精致优雅

点点细语
2026-04-13 09:44:52
中国最豪河流,万粒黄沙一粒金,金沙江的黄金从何而来?

中国最豪河流,万粒黄沙一粒金,金沙江的黄金从何而来?

心中的麦田
2026-04-13 20:26:38
美股深V翻红,英特尔8日市值狂飙1000亿美元,油价直线下跌

美股深V翻红,英特尔8日市值狂飙1000亿美元,油价直线下跌

21世纪经济报道
2026-04-13 22:33:52
25亿拿下华钰矿业11%股份,万洋集团“创二代”卢军亮拟入主

25亿拿下华钰矿业11%股份,万洋集团“创二代”卢军亮拟入主

蓝鲸新闻
2026-04-13 21:40:04
王石被抓?最新回应

王石被抓?最新回应

江南晚报
2026-04-13 09:40:37
前国脚王永珀现状:在美国踢野球,开豪车住豪宅,两个女儿很可爱

前国脚王永珀现状:在美国踢野球,开豪车住豪宅,两个女儿很可爱

TVB的四小花
2026-04-13 19:43:22
第三波来了!多架专机直飞中国,东南亚11国选边站,中方已致贺电

第三波来了!多架专机直飞中国,东南亚11国选边站,中方已致贺电

霁寒飘雪
2026-04-13 09:52:34
连谈21小时,美伊不欢而散,特朗普:特朗普:中国不许送武器,否则有麻烦

连谈21小时,美伊不欢而散,特朗普:特朗普:中国不许送武器,否则有麻烦

闻识
2026-04-12 13:53:31
国民党副主席李乾龙,七八十岁老人走完392级台阶,每一步都作数

国民党副主席李乾龙,七八十岁老人走完392级台阶,每一步都作数

阿天爱旅行
2026-04-12 21:47:18
伊朗革命卫队:霍尔木兹海峡允许非军事船只通过

伊朗革命卫队:霍尔木兹海峡允许非军事船只通过

每日经济新闻
2026-04-13 07:38:50
2026-04-13 23:19:00
字母榜 incentive-icons
字母榜
让未来不止于大。
2370文章数 8057关注度
往期回顾 全部

科技要闻

"抄作业"近四年,马斯克版微信周五上线

头条要闻

媒体:欧尔班败选不仅是一国之事 牵扯到与中国的关系

头条要闻

媒体:欧尔班败选不仅是一国之事 牵扯到与中国的关系

体育要闻

一支球队不够烂,也是一种悲哀

娱乐要闻

初代“跑男团”合体,邓超、鹿晗缺席

财经要闻

谈判未完全关闭?3国力促美伊重启谈判

汽车要闻

不止命名更纯粹 领克10/10+要做纯电操控新王

态度原创

时尚
本地
旅游
艺术
军事航空

会穿衣的女人有优势!衣服不图多、展现曲线,大方高级又舒适

本地新闻

12吨巧克力有难,全网化身超级侦探添乱

旅游要闻

看见古村|贵州尧上古寨:古村新姿,山水人文载乡愁

艺术要闻

22位中国当代名家油画作品

军事要闻

特朗普:今晚10点封锁伊朗 对北约非常失望

无障碍浏览 进入关怀版