智通财经获悉,Counterpoint Research研究助理David Wu 表示,依目前预测,预计到2028年,联发科可占据约26%的全球 AI服务器运算ASIC出货量。需要注意的是,目前的预测未包括 Meta MTIA 潜在项目的中标情况。此外,实际出货表现仍取决于先进封装产能,包括 TSMC CoWoS 配额以及 Intel EMIB-T 在 Humufish 上的良率准备情况。
在刚刚结束的Google Cloud Next 大会上,谷歌发布了两款最新AI ASIC 服务器芯片——TPU v8t(用于训练)和 TPU v8i(用于推理用)。作为谷歌第八代 TPU 芯片,这两款产品在可扩展性、效率和可靠性方面进行了优化,以应对日益增长的推理密集型工作负载,以及面向 “Agentic AI” 时代的 MoE(Mixture-of-Experts)架构。根据Counterpoint Research 最新报告,TPU v8t(Zebrafish)在谷歌 AI 芯片策略中具有重要地位,亦被视为供应链策略调整的关键节点,显示其由原先以 Broadcom turnkey ASIC 模式为主,逐步转向多元合作模式。
关于谷歌为何采用“谷歌设计计算芯片核心、联发科提供 I/O 芯片”的新模式,Counterpoint Research副总监 Brady Wang 表示:“主要考量在于 HBM 采购成本。在 Broadcom turnkey 模式下,ASIC 供应商负责HBM采购,并加收15%–20%的费用。随着 HBM 在整体成本中占比不断上升,这部分溢价在大规模部署时将显著增加成本,尤其是在谷歌加速TPU部署的背景下。通过从 Zebrafish 开始将芯片设计和HBM采购内部化,谷歌可降低整体成本。”
随着 Zebrafish 预计于 2026 年底开始量产,Humufish 预计于 2028 年逐步放量,联发科相关出货量有望随之增长。根据 Counterpoint Research 最新全球 AI 服务器运算 ASIC 出货预测,TPU v8t 和 v8i 的合计出货量预计将在 2028 年接近 500 万台,相较 2026 年约 40 万台的出货量呈现显著增长,主要反映谷歌在内部应用和云端客户场景中持续推进 TPU 部署。
在 TPU v8e(Humufish)产品路线图中,联发科计划采用 Intel 的 EMIB-T 封装。Counterpoint Research 高级分析师 Ashwath Rao 指出:“目前 Humufish 正处于设计引入和验证阶段,预计量产时间为 2027 年底。后续发展仍取决于 Intel Foundry Services(IFS)先进封装的良率,以及关键基板供应商的准备情况,这些因素最终可能影响联发科的出货量进度。”
本文源自:智通财经网
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.