Google 近期正式启动数据中心 “登月计划”,计划将自身算力全面迁移至太空,该项目被命名为 Project Suncatcher(太阳捕手计划)。
![]()
其核心思路十分明确:与其在地球上争夺日益稀缺的资源,不如直接进军太空获取太阳能。
这项全新计划的唯一目标,是打造一个由太阳能驱动、具备可扩展性的太空 AI 基础设施。
此前,OpenAI CEO 奥特曼与微软 CEO 萨提亚・纳德拉在播客节目中曾表示,当前面临的核心问题并非芯片供应,而是缺乏足够的 “暖壳”(warm shells)来容纳这些芯片。
![]()
这番言论看似 “凡尔赛”,却揭示了 AI 发展的新痛点 —— 在 AI 浪潮初期,人们普遍认为算力是决定一切的关键,但奥特曼在节目中强调,AI 的未来更依赖能源领域的突破,即便订购了大量 AI 芯片,若配套的数据中心与电力供应无法跟上,最终也难以发挥作用。
AI 领域的能耗规模极为惊人。
根据国际能源署(IEA)的预测,到 2030 年,全球数据基础设施的耗电量将与整个日本的全国耗电量相当。除了电力,水资源消耗同样不容小觑。
世界经济论坛的数据显示,一座 1 兆瓦的数据中心,每日耗水量相当于约 1000 名发达国家居民的日用水量总和。
![]()
以英伟达 H100 芯片为例,其最高功耗可达 700W,与家用微波炉功耗相近,而一个数据中心通常会配备数以万计的 H100 显卡,且需 24 小时不间断运行。
近五年间,数据中心的需求呈爆发式增长,但这一增长速度已远超新发电能力的规划进度。
为破解能源难题,Google 推出了独特方案:发射由太阳能驱动、搭载自研 TPU 芯片(功能类似英伟达 GPU,专为计算设计)的卫星星座,在太空中搭建 “轨道 AI 数据中心”。
太空为何能成为数据中心的新选择?
Google 给出了直接且有力的理由。
首先是效率优势,卫星在合适轨道运行时,太阳能板的效率是地球表面的 8 倍;其次是供电稳定性,太空无黑夜与云层遮挡,能实现 7×24 小时不间断供电,这是地面太阳能板无法比拟的;此外,太空数据中心无需占用地球有限的土地资源,也无需消耗大量水资源用于冷却,正如马斯克在社交平台 X 上所言,太空 AI 卫星能实现对地球资源的 “零消耗” 保护。
![]()
目前,地球上的数据中心正逐渐逼近能源瓶颈。
为解决冷却与供电问题,全球大厂各寻出路:冰岛、挪威的数据中心依托低温环境降温,内华达沙漠的数据中心依赖丰富太阳能供电,国内苹果、华为、腾讯、移动等企业则将数据中心布局在贵州、宁夏中卫等地,借助当地自然环境降低能耗。
![]()
但太空环境的复杂性远超地球,Google 在其研究论文中详细罗列了当前需攻克的三大核心难题及应对方案。
第一个难题是太空 “局域网” 搭建。AI 训练需要海量芯片协同工作,对设备间的连接带宽与延迟有着极高要求。地球上可通过光纤实现高速传输,太空环境下则需另寻路径。
Google 的解决方案是 “编队飞行 + 激光通信”:计划让卫星保持极近的距离,仅为公里级甚至更近。
![]()
在包含 81 颗卫星的模拟星座中,每颗卫星都配备了太阳能阵列、辐射冷却系统和高带宽光学通信模块,卫星间距离可在 100-200 米范围内动态调整。依托这一近距离布局,卫星可通过自由空间光通信(FSO ISL)技术实现高速互联,Google 在论文中透露,相关演示已成功达成 1.6 Tbps 的双向传输速率。
第二个难题是宇宙辐射防护。太空环境极端恶劣,太阳在提供能源的同时,会喷射出致命的高能粒子(辐射),这对精密芯片而言是毁灭性打击。
![]()
Google 的应对方式是直接测试芯片抗辐射能力:将自家 Cloud TPU v6e(Trillium)芯片送入实验室,用 67 MeV 的质子束进行轰击测试。
结果显示,该芯片 “具备惊人的抗辐射性”,其中最敏感的高带宽内存(HBM)在承受 2 krad (Si) 辐射剂量后才出现异常,这一数值接近 5 年任务预期辐射剂量(750 rad (Si))的 3 倍。
这意味着 Google 的 TPU 芯片可在低地轨道连续运行 5 年而无永久损伤。Google 计划在 2027 年前与专注于卫星图像和地球数据分析的 Planet 公司合作,发射两颗原型卫星,验证实际运行效果。
![]()
第三个难题是数据回传。尽管太空卫星间的数据传输已实现高速高效,但如何将计算结果快速传回地球,仍是 Google 在论文中承认的未解决重大挑战。
![]()
一方面是延迟问题,Google 选择的 “晨昏同步轨道” 虽能最大化利用太阳能,但会增加对部分地面位置的通信延迟;另一方面是带宽瓶颈,目前 “地 - 空” 光通信的最高纪录是 NASA 在 2023 年创下的 200 Gbps,这一速度对于太空 AI 数据中心的海量数据传输而言,仍显不足。
![]()
在所有技术挑战之上,最核心的制约因素是发射成本。曾几何时,将一公斤物体送入太空的成本远超同等重量的黄金。
![]()
Google 在论文中测算,若 SpaceX 的发射成本能降至 200 美元 / 公斤(预计 2035 年左右实现),太空数据中心的单位功率成本将与地面数据中心持平,约为 810 美元 /kW/ 年,这一数值完全处于美国本土数据中心 570-3000 美元 /kW/ 年的成本区间。
换句话说,当火箭发射成本足够低时,太空将成为比地球更适合建设数据中心的选择。但目前的实际发射价格,仍是这一理想成本的十倍以上。
而能推动这一成本变革的关键企业,正是 SpaceX。
Google 在论文中明确采用了 SpaceX 的成本下降假设:总发射质量每翻倍,单位发射成本下降 20%。
![]()
从 Falcon 1 到 Falcon Heavy,SpaceX 已将发射成本从 30000 美元 / 公斤降至 1800 美元 / 公斤;Starship 的目标则是在 10 倍可重复使用率下,将成本降至 60 美元 / 公斤,极限情况下甚至可低至 15 美元 / 公斤。
![]()
这意味着 SpaceX 很可能成为支撑 Google 太空数据中心经济模型的核心力量 —— 若说英伟达垄断了地球上的 GPU 市场,未来 SpaceX 或许会垄断太空中的 “算力空间”,在地球英伟达卖芯片,在太空 SpaceX 则 “售卖轨道”。
值得关注的是,在 Google 发布论文数日前的 11 月 2 日,英伟达的 H100 GPU 已首次被送入太空。
这颗芯片搭载于 2024 年成立的初创公司 Starcloud 的卫星上,其在轨算力较以往任何太空计算机提升了 100 倍。
Starcloud 诞生之初便以构建太空数据中心为目标,已获得英伟达、YC 等机构投资,其核心业务是实现数据的在轨实时处理。
![]()
Starcloud CEO 举例说明:SAR(雷达成像)卫星产生的原始数据体量庞大,与其下载数百 GB 的原始数据,不如通过在轨 H100 芯片进行分析,仅传回 1KB 大小的核心结果(如 “某位置有一艘船及具体速度”)。
而谈及愿景的实现基础,Starcloud CEO 同样指向马斯克 —— 其计划完全依赖 “SpaceX Starship 带来的成本降低”,此次搭载 H100 芯片的 Starcloud-1 卫星,正是通过 SpaceX 的 Bandwagon 4 Falcon 9 航班成功发射。
![]()
过去五年,英伟达之所以能屡次刷新最高市值纪录,核心在于三点:提供性能最强的算力单元(GPU)、掌控 CUDA 通用计算平台生态形成软件锁定、成为所有 AI 公司(包括 OpenAI、Anthropic、Google)的算力上游。
但在即将到来的太空算力时代,这三大优势的格局可能被重新改写,届时 “算力空间” 将成为新的行业红利。
![]()
AI 的发展极限,或许才刚刚拉开序幕。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.