布兰·罗伯逊在加州大学圣克鲁兹分校的办公室里,正把一套用了多年的深度学习模型推倒重来。不是出于学术兴趣,而是被逼的——NASA下月就要发射的太空望远镜,每天下来的数据量,老工具根本吞不下。
这位天体物理学家过去15年一直和英伟达合作,用图形处理器(GPU)模拟超新星爆炸。现在他面临的新问题是:数据洪流来了,而全球GPU早被大模型公司抢空了。
![]()
数据海啸倒计时
2026年9月,南希·格蕾丝·罗曼太空望远镜将提前8个月升空。NASA预计它服役期间要向地面传回2万TB数据。
这还没算已经在干的。詹姆斯·韦伯太空望远镜2021年开工以来,每天下行57GB高清影像。智利薇拉·鲁宾天文台今年晚些时候启动巡天,每晚20TB。
作为参照,曾经的标杆哈勃望远镜每天只传1-2GB传感器读数。罗伯逊对TechCrunch描述了这个跃迁:「从观察少数天体,到用中央处理器(CPU)做大规模分析,再到用GPU加速同样分析。」
三个阶段,三种算力需求。现在进入第三阶段,但GPU不够分了。
星系猎手的工具迭代
罗伯逊和当时的研究生瑞安·豪森开发了一个叫Morpheus的深度学习模型,专门在海量数据中识别星系。早期用它分析韦伯数据时,发现了一种盘状星系的数量远超预期,给宇宙演化理论添了新变数。
现在Morpheus正在架构大改——从卷积神经网络(一种专门处理图像的神经网络结构)转向Transformer(大语言模型背后的架构)。
切换之后,单次能分析的面积将扩大数倍。罗伯逊需要这个速度,因为2026年的数据管道已经铺好,工具必须提前到位。
被忽视的算力买家
天文界的GPU需求很少被计入行业分析。但罗伯逊的15年合作史说明,科学计算一直是英伟达的早期 adopters(采用者)。超新星模拟、宇宙流体动力学、引力透镜建模——这些问题的并行计算特性,天生适配GPU架构。
区别在于,以前科学家和游戏玩家、加密货币矿工抢卡,现在对手换成了OpenAI、Anthropic和各大云厂商。天文项目的预算周期以年计算,而AI公司的采购订单以周为单位。
罗伯逊的模型重构,某种程度上是被算力短缺倒逼的技术路线调整。Transformer架构的扩展性更好,但真正的驱动力是:在有限GPU资源下,必须让单次计算覆盖更多数据。
一个被低估的信号
这场静悄悄的算力战争值得科技从业者关注。它说明GPU短缺正在向上游渗透——不是只有训练大模型需要算力,任何需要处理大规模并行数据的领域都在被波及。
天文数据的特殊性在于:它无法压缩,无法采样,必须全量处理。2万TB不是估算,是NASA写在发射计划里的硬数字。罗伯逊们的工具升级,本质是在为确定到来的数据洪峰修建泄洪道。
如果你在做算力基础设施、云资源调度,或者只是关心GPU供需的下一个变量——科学计算这个沉默的需求方,可能正在排队。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.