天气预报非常不靠谱——气候建模更是如此。但它们逐渐提高的预测自然界对人类影响的能力,主要归功于两件事——更好的模型和更强的计算能力。
现在,来自德国马克斯·普朗克研究所的丹尼尔·克洛克领导的研究人员发表了一篇 论文,该论文在 arXiv 上以预印本形式发布,描述了气候建模社区中一些人所称的该领域的“圣杯”——一个几乎达到千米级分辨率的模型,将天气预报与气候建模结合在一起。
从技术上讲,新模型的规模并不是每个建模单元1平方公里——而是1.25公里。但实际上,谁还在乎这个呢?估计有3.36亿个单元覆盖了地球上的所有陆地和海洋,作者还在地面单元的正上方添加了同样数量的“气候”单元,总共计算了6.72亿个单元。
对于这些格子,作者运行了一系列相互关联的模型来反映地球的主要动态系统。他们把它们分为两类——“快速”和“缓慢”。“快速”系统包括能量和水循环——这基本上就是天气。为了更清楚地跟踪这些过程,模型需要极高的分辨率,比如新系统能够达到的1.25公里。
在这个模型中,作者使用了ICOsahedral Nonhydrostatic(ICON)模型,这个模型是由德国气象局和马克斯·普朗克气象研究所共同开发的。
而“缓慢”过程则包括碳循环、生物圈变化和海洋地球化学变化。这些过程反映了数年甚至数十年的趋势,而不是雷暴在1.25公里的格子间移动所需的几分钟。将这两种快速和缓慢的过程结合起来,正是本文的真正突破,作者对此也很认同。
典型的模型要想纳入这些复杂系统,只有在超过40公里的分辨率下才能在计算上可处理。
那么他们是如何做到的呢?通过深入的软件工程和大量最新的计算机芯片。
这项工作的基础模型最初是用Fortran编写的——对于任何试图更新1990年前代码的人来说,这简直是个噩梦。
自从最初开发以来,它就被许多额外的功能拖累,使其在任何现代计算架构中都难以使用。因此,作者决定使用一个名为数据中心并行编程(DaCe)的框架,以与现代系统兼容的方式来处理数据。
这个现代系统由JUPITER和Alps两台超级计算机组成,分别位于德国和瑞士,并且都基于Nvidia的新GH200 Grace Hopper芯片。在这些芯片中,GPU(如用于训练AI的类型——在这种情况下称为Hopper)与CPU配合使用(在这种情况下来自另一家芯片供应商ARM,并标记为Grace)。
这种计算责任和专业的分工让作者能够在GPU上运行“快速”模型,以体现其相对较快的更新速度,而较慢的碳循环模型则由CPU进行并行处理。
将所需的计算能力分开,使他们能够在一天内利用20,480个GH200超级芯片准确模拟145.7天。为此,该模型使用了近1万亿个“自由度”,在这里指的是它需要计算的总值。
可惜的是,这也意味着如此复杂的模型不会很快出现在你们当地的气象站。这样的计算能力并不容易获得,而大型科技公司更可能把它用来榨取生成性人工智能的每一丝潜力,完全不顾这对气候建模的影响。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.