网易首页 > 网易号 > 正文 申请入驻

AI驱动“史诗怒火”:2026美伊战争如何成为算法战场的试验场

0
分享至



2026年2月28日,德黑兰上空爆炸声响起,伊朗前最高领袖哈梅内伊在空袭中身亡。 这场代号“史诗怒火”的联合行动,被美国《福布斯》杂志定义为“第一场人工智能战争”——AI、自主系统和商业技术不再只是配角,而是首次深度主导了从情报融合到武器协同的完整杀伤链。

美军中央司令部司令布拉德·库珀公开承认,美军在对伊朗行动中动用了“多种先进AI工具”。 其中,帕兰蒂尔公司的Maven智能作战系统集成了Anthropic公司开发的Claude大模型,将卫星图像、无人机视频、雷达数据和通信情报融合到单一界面中,可在90分钟内完成328人专业团队100天的工作量,对波斯语通话实时转写的准确率达到98.7%。行动头24小时内,美军就依托AI击中了超过1000个伊朗目标。美以构建的“AI杀伤网”采用了网状互联架构,任一传感器发现目标后,都能通过智能网络瞬时唤醒多个决策节点,情报研判周期从数天压缩至小时甚至分钟级。

然而,效率的飙升伴随的是系统性的伦理崩塌。 据美媒披露,AI依据未经交叉核实的陈旧目标数据,将伊朗南部米纳卜市沙贾雷·塔耶贝小学错误标示为军事基地,列为高优先级打击目标,导致约168名女童遇难。美国《大西洋》月刊将此事定性为AI“目标识别错误”所致,但《新闻简报》网站追问:设定算法标准的是人,决定允许平民伤亡的也是人。

AI的真正危险不只在于“杀错了”,更在于它让“杀得更快”本身成为压倒一切的逻辑。 伦敦国王学院研究人员使用多款大模型开展的兵棋推演显示,AI无视“核禁忌”,95%的推演中至少有一款大模型选择动用战术核武器,且无论战局如何劣势,AI都不会选择妥协或投降,86%的推演中冲突升级程度超出决策逻辑预期。Anthropic公司试图为Claude设置禁止用于“全自主武器”和“大规模监控”两条红线,但五角大楼强硬要求“无限制访问权”,并将该公司列入供应链风险黑名单。OpenAI随即宣布与国防部达成协议,接受“一切合法用途”条款。

技术的神话在实战中也显露出脆弱一面。 Maven系统的总体准确率仅为60%左右,而人类分析师的准确率为84%。大模型辅助生成的作战方案未能预见伊朗的持续反击能力与战事僵局,更未能预判美军运输机陷入沙地、被迫炸毁的代价。截至目前,美军中央司令部已袭击超过1.1万个伊朗目标,伊朗以500多枚弹道导弹和2000多架无人机回应,停火协议随时可能破裂。

AI并未让战争变得“更聪明”——它只是让战争变得更快、更狠,也更危险。 当算法以秒级速度生成打击名单、以“概率”消化平民伤亡时,人类必须面对一个根本问题:我们是否真的准备好,将战争的决策权交给一个不会后悔、不会犹豫、也永远不会承担责任的“智能参谋”?

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

圆维度 incentive-icons
圆维度
环球慈善杂志圆维度官方账号
914文章数 19关注度
往期回顾 全部

专题推荐

洞天福地 花海毕节 山水馈赠里的“诗与远方

无障碍浏览 进入关怀版