- 01 OpenAI与半导体巨头博通宣布达成一项价值数十亿美元的战略合作,将共同开发并部署总容量达10吉瓦的定制AI芯片。
- 02 根据协议,OpenAI负责芯片设计,博通负责系统集成,首批芯片预计2026年下半年开始部署。
- 03 此举是OpenAI硬件供应链多元化战略的关键一步,旨在降低对英伟达的依赖,并通过引入竞争优化采购成本。
10月14日消息,OpenAI与半导体巨头博通宣布,双方已达成一项价值数十亿美元的战略合作,将共同开发并部署总容量达10吉瓦的定制AI芯片。这一合作标志着OpenAI的硬件供应链多元化战略迈出了关键一步。
根据协议,OpenAI将负责芯片的自主设计,将其在开发大型AI模型过程中积累的技术经验深度融入硬件架构中,而博通则负责芯片的系统集成。首批定制芯片预计将于2026年下半年由博通开始部署,整体计划在2029年底前完成。
OpenAI首席执行官山姆・奥特曼(Sam Altman)透露,此次合作的芯片将专门针对AI“推理”(inference)过程优化,即人工智能系统响应用户请求的关键环节。随着AI技术从模型训练转向大规模应用,推理环节预计将在未来计算需求中占据更大比重。
据悉,双方的合作始于18个月前,最初聚焦于芯片设计,随后扩展至服务器机架、网络设备等配套系统。据知情人士透露,新系统将采用博通的以太网技术及其他连接解决方案。这些设备将同时部署在OpenAI自建的数据中心及第三方合作数据中心。
尽管未公开具体交易金额,但多位知情人士确认该合作价值达“数十亿美元”。值得注意的是,与OpenAI此前同英伟达、AMD的合作不同,此次博通交易未包含大规模采购的财务激励条款。英伟达此前承诺向OpenAI投资1000亿美元,AMD则提供了可认购其10%股份的认股权证。
经此合作,OpenAI从博通、英伟达和AMD三家芯片厂商已锁定的总计算容量将累计达26吉瓦,相当于26个核反应堆的发电规模,足以满足纽约市夏季峰值用电需求的两倍以上。这一布局将有效帮助OpenAI降低对英伟达的依赖,并通过引入竞争机制逐步优化芯片采购成本。
用定制芯片掌控命运
OpenAI与博通的合作预示着一个重要的行业趋势:领先的AI企业不再满足于通用组件,开始投身自研芯片。通过定制AI加速器,OpenAI得以将其在软件和模型构建中积累的深刻洞见,直接融入硬件底层。
奥特曼称,这种软硬件协同是提升效率的关键。他解释说:“我们能够实现显著的效率提升,从而带来更强大的性能、更快的模型和更低的成本,这一切都将成为现实。”这种定制化方法使硬件能够精准匹配特定的AI工作负载,从而有望大幅削减训练和运行尖端模型所需的高昂开支。
博通高管查理·卡瓦斯(Charlie Kawwas)指出:“定制加速器与符合行业标准的以太网纵向扩展和横向扩展网络方案相结合,能够打造出在成本与性能上均实现优化的新一代AI基础设施。”
更值得关注的是,OpenAI正在利用自身AI技术“反哺”芯片设计。其总裁格雷格·布罗克曼(Greg Brockman)透露:“我们将人类已优化的组件作为基础,直接投入计算资源,由AI模型自主输出优化方案。”
博通首席执行官陈福阳(Hock Tan)将这一战略视为AI领军企业的必然选择,他直言:“自研芯片,才能真正掌控自己的命运。”
OpenAI能否承担巨额成本?
为实现这些协议,OpenAI需投入数千亿美元。该公司预计今年收入为130亿美元,这意味着其必须实现指数级收入增长才足以覆盖这些计算成本。
OpenAI估值达5000亿美元,是全球最具价值的初创公司,推出了ChatGPT和视频生成软件Sora等热门AI工具,每周活跃用户超过8亿。然而,这些亮眼数据在未来的万亿级投资面前仍显得单薄。
面对算力瓶颈,OpenAI管理层毫不掩饰其焦虑。奥特曼与布罗克曼多次公开表示,公司现有算力已无法满足需求,计划在全球新建大型数据中心。
据知情人士透露,奥特曼在内部提出,OpenAI计划在2033年前建成250吉瓦的新计算容量。以当前成本估算,这一目标将耗资超过10万亿美元。尽管他承认需要创新融资工具来支持该计划,但具体路径仍未见披露。
尽管资金压力巨大,OpenAI的合作伙伴仍选择相信奥特曼“以AI重塑世界”的愿景。贝恩公司今年9月发布的报告指出,到2030年,AI基础设施投资需要每年产生2万亿美元的行业收入才能支撑,而这一数字超过了亚马逊、苹果、Alphabet、微软、Meta与英伟达2024年的总收入之和。
多元战略背后的高风险棋局
对OpenAI而言,与博通的合作是其构建弹性算力基础的关键一步。面对日益庞大的算力需求,这家AI巨头正积极摆脱对单一供应商的依赖,转向“多源并行”的供应链体系,以支撑其不断扩张的技术野心。
这一战略转向自OpenAI与微软修订合作协议后便加速推进。新条款为其打开了“多云、多供应商”的布局空间,随后便催生了与甲骨文高达3000亿美元的云服务订单,以及与英伟达在10吉瓦下一代算力系统上的深度合作。
上周,OpenAI再进一步,宣布将从AMD引入6吉瓦的AI GPU。而此次与博通的联手,则为其供应链拼图补上了关键的“第三极”。这一布局不仅在核心供应商之间构建了竞争机制,也显著增强了OpenAI在合作中的议价能力。
通过整合云计算资源、多元GPU与定制化芯片,OpenAI正在打造一条兼具韧性与竞争力的供应链。正如公司总裁布罗克曼所言:“相比于算力过剩,我们更担心因算力不足而失败。”
算力竞赛:一场没有退路的投入
面对Meta、谷歌等对手在数据中心领域动辄千亿美元的投入,获取吉瓦级别的电力与算力资源,已成为AI企业维持竞争力的“生存门槛”。
这场竞赛也推动着融资模式的创新。为加码对OpenAI的投资,软银近期获得了50亿美元贷款,这正是资本对这场算力之争的回应。而微软为OpenAI专门部署的全球首套大规模英伟达GB300超算系统,也凸显出基础设施在AI竞争中的核心地位。
尽管外界对AI领域的巨额开支心存疑虑,奥特曼却认为这是面向未来的必要投资。他强调:“计算基础设施将成为未来经济的基石。”
从战略角度来看,OpenAI已从早期自建芯片制造网络的激进构想,转向更务实的生态合作。相比传闻中耗资7万亿美元的全球芯片工厂计划,选择与博通、台积电等行业领袖携手,标志着其战略思维从“独自颠覆”迈向了“联合共建”。(小小)