![]()
模块化基础设施公司Moonshot Energy、QumulusAI以及Connect Nation Internet Exchange Points(IXP.us)共同宣布,计划在美国25个地点设计和部署QAI Moon Pods,并最终扩展至125个城市。
这一合作将三家公司的运营商中立互联、模块化AI基础设施以及GPU即服务技术相结合,创建可扩展的国家级推理和AI工作负载基础设施,从而降低延迟并将AI计算能力扩展至传统超大规模数据中心无法覆盖的区域。
首次部署将于2026年7月在堪萨斯州威奇托州立大学校园开始,随后预计将扩展至其他25个城市。这些公司已经在美国大学研究校园和市政区域识别出多达125个潜在部署地点。
IXP.us联合首席执行官Hunter Newby向Data Center Knowledge表示:"我们正在建设互联网交换点和AI模型——这不是数据中心项目,我们不是在建设兆瓦或千兆瓦级别的设施。"他补充说,AI Pod的建设周期为几个月,而非数年。
模块化方案
这些2000千瓦的模块化单元由Moonshot设计和建造,GPU基础设施则由QumulusAI负责。这些公司表示,AI Pod将在边缘提供低延迟AI计算,而无需依附于大型超大规模数据中心的限制。
Moonshot首席执行官Ethan Ellenberg在声明中说:"这一合作伙伴关系代表了电力、计算和互联在AI需求转移的精确点上的物理融合。"
HyperFrame Research首席执行官兼分析师Steven Dickens告诉Data Center Knowledge,这一合作解决了服务不足地区的需求。
他说:"这是将推理带到边缘和更近的地方。我们正在建设这些巨大的训练数据中心,它们对于训练用途来说非常出色。但在接下来的几年里,我们可能会看到部署到推理的GPU数量是训练GPU的10倍。这将应用于计算机视觉、智能零售、智能制造和医疗保健。对于所有这些用例,你需要以良好的往返延迟访问GPU。"
他补充说:"有大量不同的行业将需要AI,而且他们需要本地化的AI。"
推理市场布局
这些公司发现了一个机会,即满足那些无法获得昂贵数据中心GPU算力地区的推理需求。
QumulusAI首席执行官Mike Maniscalo表示:"所有工作负载都越来越受推理驱动、对延迟敏感且分布式,但基础设施还没有跟上步伐。这一合作伙伴关系让我们能够将GPU计算直接放置在网络边缘,即数据流动和决策发生的地方……我们正在建设一个国家级平台,使高性能AI计算在超大规模数据中心之外变得实用、可扩展且经济可行。"
Q&A
Q1:QAI Moon Pods是什么?有什么特点?
A:QAI Moon Pods是由Moonshot Energy、QumulusAI和IXP.us三家公司合作开发的模块化AI基础设施。它采用2000千瓦的模块化设计,能够在边缘提供低延迟AI计算服务,建设周期仅需几个月而非数年。
Q2:这个项目计划在哪些地方部署?规模如何?
A:项目计划首先在美国25个地点部署,最终扩展至125个城市。首次部署将于2026年7月在堪萨斯州威奇托州立大学校园开始,部署地点主要选择在美国大学研究校园和市政区域。
Q3:为什么要在中小城市部署AI Pod而不是大型数据中心?
A:因为推理工作负载越来越需要低延迟和分布式部署,而传统超大规模数据中心无法覆盖所有地区。AI Pod可以将GPU计算直接放在网络边缘,满足计算机视觉、智能零售、智能制造和医疗保健等行业的本地化AI需求。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.