![]()
地球到火星,无线电跑一趟要5到24分钟。这意味着当NASA工程师发现飞船偏航时,事故早已发生4分钟。
这个死结困住航天界60年,直到AI接管了方向盘。
从"遥控玩具"到"自己开车"
传统飞船导航像玩延迟极高的赛车游戏。指令发出,等;画面传回,再等。深空任务中,这种循环动辄数十分钟。
AI导航系统的运作逻辑完全不同。它把传感器数据直接喂给机载计算机,决策链路压缩到毫秒级。NASA喷气推进实验室(JPL)的测试显示,AI能在0.3秒内完成一次轨道修正——人类团队走完同样流程需要数小时。
关键突破在于"感知-决策-执行"闭环的本地化。飞船不再事事请示地球,而是像老司机一样自己看路、自己打方向。
这种 autonomy(自主性)对长周期任务至关重要。飞往木星的"欧罗巴快船"任务,单程通信延迟超过1小时。等地球回复"前方有块石头",飞船早已撞成烟花。
![]()
通信带宽的"节流阀"
深空通信有另一道坎:带宽。NASA深空网络每天处理的数据量,相当于全网用户同时刷4K视频——但设备是上世纪70年代铺设的。
AI在这里扮演的是智能压缩和优先级排序的角色。它会判断哪些数据值得立即传回,哪些可以存着等带宽空闲。更关键的是纠错:宇宙射线会随机篡改比特,AI能预测并修复这些错误,避免传回一堆废码。
一个具体案例:好奇号火星车在2021年升级了AI图像筛选系统。以前它把所有照片打包发回地球,科学家再挑有用的。现在AI直接在火星表面做初筛,只传"有科学价值"的图像。下行数据量减少40%,关键发现却更快抵达地球。
这相当于给老旧的通信管道装了个智能阀门。
天文数据的"淘金工"
现代巡天望远镜每晚产生的数据,超过天文学史上所有纸面记录的总和。斯隆数字巡天(SDSS)项目累计拍摄了超过5亿个天体的图像。
![]()
人类分析师看不过来,AI却可以。
2017年,谷歌AI团队与NASA合作,用神经网络筛查开普勒望远镜的数据。系统在已归档的数据中发现了一颗被遗漏的系外行星——开普勒-90i。这颗行星所在的恒星系因此成为已知拥有最多行星(8颗)的星系之一,与太阳系并列。
更日常的用法是瞬变源捕捉。超新星爆发、伽马射线暴这些事件持续时间短、亮度变化快,AI能实时监控海量像素,在毫秒级时间内触发后续观测。人类团队从"发现者"变成了"验证者"。
代价与边界
AI上天不是没有代价。深空环境的辐射会随机翻转芯片里的比特,导致"软错误"。JPL的解决方案是冗余:三套独立AI系统同时运算,投票决定最终输出。这增加了重量和功耗,但换来了可靠性。
另一个争议是决策黑箱。当AI在几毫秒内决定"向左避开陨石"时,工程师事后可能无法完整复现它的推理链条。NASA目前的做法是划定禁区:涉及推进剂消耗、科学仪器指向等高风险决策,仍需地球最终确认。
但边界在模糊。2024年,欧洲空间局的"赫拉"任务测试了完全自主的小行星接近机动。飞船在3亿公里外自行选择着陆点,人类只负责鼓掌。
从"人在回路"到"人在环外",这个转变比技术本身更耐人寻味。
当飞船学会自己思考,地面控制室的角色会变成什么?是教练、裁判,还是纯粹的观众?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.