你敢信?找130亿光年外的星系,以前就像在黑夜里摸黑找一根极细的绣花针——那星系的光弱到什么程度?每秒只有几个光子能落到望远镜上,比远处飘着的萤火虫暗上亿倍!过去人类只能砸钱造更大的镜子、更贵的卫星,但钱花得越来越多,提升却越来越小,就像手机充电到99%再充1%要等半天。直到2月20号,清华的两个团队扔出了个炸子儿:他们搞的AI“星衍”,直接把詹姆斯·韦布空间望远镜的探测深度拉了1个星等,相当于把韦布的等效口径从6.4米干到了近10米!更狠的是,靠这个AI,他们新发现了162个宇宙大爆炸后2到5亿年的候选星系——之前国际上总共才找到50多个,直接翻了三倍!
![]()
先唠唠这个“1个星等”到底有多牛。天文里的星等,数值越大天体越暗,提升1个星等,意味着能看到原来2.5倍暗的东西。韦布本来已经是人类最牛的太空望远镜了,现在靠AI“加持”,相当于凭空给它换了个更大的“眼睛”——要是真造个10米口径的望远镜,那造价得翻好几倍,还得等好多年才能发射,清华这波操作直接省了几十亿甚至上百亿的成本!
为什么AI能搞定?因为天文观测有个死对头——噪声。你想啊,太阳系的黄道光、银河系的漫射光,再加上望远镜自己的热辐射,这些东西混在一起,就像给宇宙照片盖了一层厚厚的雾,暗弱的星系信号根本看不清。而且这些噪声还不是均匀的,一会儿这儿多一会儿那儿少,传统的叠加方法根本没用。
清华团队的降噪思路简直是黑科技!他们搞的“自监督时空降噪”,核心是把噪声的波动和星系本身的亮度一起建模。吴嘉敏副教授说过,直接用海量真实观测数据训练,既能加深度又能保证准确。具体更牛的是,这个AI不需要人去标数据!一般的AI模型得先给一堆图标上“这是星系”“这是噪声”,但星衍直接用真实观测数据就能训。团队还专门搞了套天文专用的评价体系,盯着探测能力和形态保真,避免了传统计算机视觉指标导致的信号失真——毕竟要是把星系认成噪声,或者把噪声认成星系,那麻烦就大了。
咋干?用了“分时中位,全时平均”的招:先拿中位数统计,把单次曝光里的宇宙射线这种突然冒出来的干扰去掉;再加权平均,把暗弱信号的信噪比拉满。这套组合拳,既让暗弱信号能被看见,又减少了假信号的概率。
![]()
这项成果的意义,可不只是多找几个星系那么简单。以前天文观测的思路,就是“堆硬件”:镜子越大越好,卫星越贵越好。但现在已经到瓶颈了,再砸几百亿,可能也就提升一点点。清华这波操作,相当于打开了新大门:用算法从现有数据里“榨”出更多信息,不用再跟硬件死磕了!
星衍还有个超厉害的本事——泛化能力。它不光能解码韦布的数据,还能兼容其他望远镜,比如日本的昴星团地面望远镜,覆盖的波段从可见光(500纳米左右)到中红外(5微米)都能管。这意味着啥?它能当一个通用的“AI大脑”,给全球的天文望远镜都装上,以后不管啥望远镜拍的图,都能靠它提升画质、找更多暗弱天体。
![]()
戴琼海院士也说了,依托星衍,那些被噪声挡住的暗弱天体能高保真重现。以后这技术要是用到更多新一代望远镜上,就能帮着解码暗能量、暗物质、宇宙起源,甚至系外行星这些大问题——想想都激动,人类对宇宙的认知又要往前迈一大步了!
从“追光”到“算光”,清华这波操作直接改写了天文观测的游戏规则。以前我们看宇宙,拼的是镜子大小、传感器灵敏度;以后呢?每台望远镜都配个AI大脑,人类能看到的宇宙,肯定比现在深得多、远得多!
![]()
星衍只是个开始,但它已经证明了一个道理:探索宇宙的时候,聪明的大脑,有时候比更大的镜子管用多了。那些162个刚被发现的“宇宙黎明”星系,在130亿光年外静静待着,等着中国科学家去揭开它们藏了130亿年的秘密——想想都觉得浪漫又牛掰!
参考资料:科技日报《清华团队用AI提升韦布望远镜探测深度 发现162个早期星系》
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.