智通财经APP获悉,美国电商与云计算领军者亚马逊(AMZN.US)将大规模尝试使用其自研AI芯片——即名为Trainium和Inferentia的AI ASIC算力集群基础设施来开发并更新迭代其自有人工智能大模型,以此来大幅降低成本。对英伟达和 AMD主导的AI GPU算力体系扩张前景而言,亚马逊此举可能带来“中长期边际压制 + 垄断溢价被削弱”,在AI推理大浪潮以及聚焦将AI大模型嵌入企业经营的“微训练”趋势之下,性价比更高的AI ASIC技术路线或将对于英伟达近乎90%市场份额的AI芯片垄断地位发起迄今为止最强有力冲击。
从AI算力产业链与芯片工程角度看,亚马逊旗下的云计算平台AWS使用自研AI芯片训练AI大模型,而不是像此前那样集中于AI推理算力主力,堪称是亚马逊自研AI ASIC算力路线的重要里程碑,但不是AI ASIC起点式里程碑——这一里程碑谷歌TPU(隶属于AI ASIC技术路线)早已证明。现在开始亚马逊AWS把“自研AI ASIC算力集群基础设施参与AI”全面升级为“自研AI ASIC直接承接自家前沿AI大模型的最核心算力系统”,这对亚马逊、谷歌以及微软这类超大规模云计算巨头(hyperscaler) 自研AI芯片路线产业链具备重大意义。
市场对于英伟达前景的担忧是正确的
亚马逊新任的人工智能基础设施负责人Peter DeSantis在周五早间接受媒体采访时表示:“如果我们能够在自己的自研AI芯片上构建模型,我们就能以纯AI大模型提供商成本的仅仅一小部分来构建这些模型。”
DeSantia还补充表示:“构建超大规模的AI数据中心确实存在一定程度上的成本问题。如果我们最终希望AI改变一切,成本就必须有所不同。”
市场普遍认为,“AI芯片超级霸主”英伟达(NVDA.US)当前仍然掌握了AI算力基础设施最核心领域——人工智能芯片市场的绝大部分市场份额。这家由黄仁勋领导的芯片巨头刚刚公布了大幅超出预期的2026财年第四季度业绩和下一财季业绩指引,但其股价周四却大幅下跌了5%,主要因市场愈发担忧来自hyperscalers近期密集宣布将推出基于自研模式的性价比更高AI ASIC芯片的动向,愈发显现出对英伟达在全球AI基建最核心领域——AI芯片领域长期绝对主导地位构成风险的迹象。
毋庸置疑的是,随着亚马逊宣布将尝试使用Trainium和Inferentia开发AI大模型,市场担忧是正确的。
本月稍早,亚马逊管理层表示,2026年的资本支出将达到大约2000亿美元,远高于华尔街预期。亚马逊首席执行官安迪·贾西(Andy Jassy)称,这笔支出中的一部分将用于开发与升级迭代自研AI ASIC算力基础设施。
贾西表示:“鉴于我们现有业务的电商服务、传统云计算服务以及AI算力需求十分强劲,以及人工智能大模型、人形机器人以及低地球轨道卫星等具有开创性的庞大增长机遇,我们预计亚马逊将在2026年投入约2000亿美元资本支出,并预计将带来强劲的长期投资资本回报。”
AI推理大浪潮来袭,英伟达未必还是那个“AI最大赢家”
亚马逊最新计划的真正新意不在于“自研AI ASIC能不能训练大模型”,而是准备把自研AI芯片从云端可选AI算力,进一步推到自家基础模型开发的核心路径上。
英伟达AI GPU几乎垄断的AI训练侧需要更加强大的AI算力集群通用性以及整个算力体系的快速迭代能力,而AI推理侧则在前沿AI技术规模化落地后更看重单位token成本、延迟与能效。比如谷歌明确把Ironwood定位为“为AI推理时代而生”的TPU代际,并强调性能/能效/算力集群性价比与可扩展性。不过亚马逊最新的行动证明了AI ASIC可能具备训练大模型的强大潜力。
AI ASIC算力体系无疑会在中长期持续削弱英伟达的垄断溢价与部分市场份额,而不是线性取代GPU体系,根本的底层原因在于,推理时代的核心竞争不再只是“峰值算力”,而是每token成本、功耗、内存带宽利用率、互连效率,以及软硬件协同后的总拥有成本。在这类指标上,面向特定工作负载定制的数据流、编译器和互连的ASIC,天然比通用GPU更容易做到高性价比。
但是,对英伟达和AMD而言,这很大程度上意味着边际压制是真实存在的,但更可能表现为议价权下滑、份额被分食、估值溢价被压缩,而非绝对需求塌陷。AI ASIC在AI推理超级浪潮下无疑将持续冲击英伟达主导的GPU垄断格局,但冲击更像是重塑产业利润池与客户采购结构,而不是让GPU扩张逻辑失效。
AWS官方就明确把 Trainium/Inferentia 定位为面向生成式AI训练与推理的专用加速器,其中Trainium2相比其AI GPU云实例给出约30%–40%更优价格性能;而谷歌此前不久也已公开表示,Gemini 2.0 的训练和推理100%运行在TPU上。这说明“超大云计算厂商用自研ASIC承接核心模型训练/推理”已不再是概念验证,而是在进入可复制的产业化阶段。
但如果把它进一步推演成“GPU体系会被迅速冲垮”,则显得过头了。英伟达真正的护城河不只在芯片本身,更在CUDA、开发工具链、模型适配广度和生态惯性;彭博分析师们在去年就指出,全球已有超过400万开发者依赖CUDA,这意味着大量前沿训练、复杂混合工作负载、以及需要快速迭代的新模型,短期内仍更适合跑在GPU上。甚至AWS一边推进自研AI芯片,一边仍在未来芯片中引入GPU体系,并继续提供基于英伟达的算力AI基础设施;这恰恰说明 hyperscaler的真实策略不是“去GPU化”,而是在高端训练层保留GPU,在大规模推理和自家模型栈中提高ASIC占比。所以,从工程现实看,未来更像是“GPU + ASIC 并存分层”,而不是单一路线胜出。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.