◎ 石光磊 石海明
近日,美国国防部正式推出GenAI.mil平台,旨在将谷歌“双子座”(Gemini)等商用生成式AI安全地引入国防体系。
随着相关技术的不断突破,生成式AI已不止于处理数据,还开始扮演军事“参谋”,深度辅助军事决策。
![]()
德国巴伐利亚州州长马库斯·泽德(右)试用“半人马座”模拟器。视觉中国供图
从模拟推演到真实战场,AI“参谋”已在多场景中现身:
在兵棋推演中,美军曾系统性测试生成式AI系统“多诺万”(Donovan)。
在飞行测试中,欧洲的机载“半人马座”(Centaur)AI智能体,可在超视距作战环境下,自主完成复杂机动并引导飞行员开火。其研发公司表示,AI智能体在第3次测试中,仅用几小时,就积累了人类飞行员约50年的飞行经验。
在真实战场,以色列国防军使用“薰衣草”(Lavender)AI决策支持系统,能够分析多源情报、识别潜在打击目标。据称,在冲突爆发后的六周内,该系统就标记了约3.7万个目标。
![]()
人们在新空防系统CA-1 Europa发布前操作“半人马座”模拟器。CA-1 Europa是一种自主无人作战飞行器。视觉中国供图
然而,这位AI军事“参谋”存在一个致命缺陷——“幻觉问题”。
生成式AI多依赖演练数据,而演练本身与真实战场存在巨大差异。这导致AI在面对未知场景时,更易产生“莫名其妙的幻觉”,它会生成看似合理却毫无依据的内容。
在战场高压状态下,指挥员更易被其“逻辑严密的错误”误导。这与军事决策零容错的要求相悖。
更棘手的是,生成式AI的“黑箱效应”,让决策者难以追溯其错误根源,进一步增加军事决策风险。
因此,当前更现实的路径是人机协同,而非AI自主决策。
在低风险常规场景中,AI可协助信息整编;在复杂决策中,AI可快速生成多套方案,供人类指挥员选择。
例如,在“刺猬-25”军演中,北约“雅典娜”(Athena)系统就曾在5分钟内生成10套作战方案,大幅提升了人类指挥员决策效率。
总之,生成式AI辅助军事决策潜力巨大,但如何破解“幻觉问题”、消解“黑箱效应”,明确其应用边界和责任归属,是亟待解决的重要课题。
责编:周顺
一审:周顺
二审:赵雨杉
三审:杨又华
来源:科技日报微信公众号
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.