人工智能正在改变战争,国防部如何为未来的变化做好准备?
面对人工智能军事应用带来的接受挑战,传统的回应一直是坚持让人类保持“有意义的人类控制”,以此作为产生信心和信任的一种方式。考虑到人工智能及其相关基础技术的普及和快速发展,这不再是一个充分的回应。人工智能将在整个作战范围内的广泛指挥与控制(C2)活动中发挥重要的、日益增长的作用。虽然在公众心目中,人工智能的直接威胁没有“杀手机器人”那么大,但在军事决策中使用人工智能既带来了重大挑战,也带来了巨大的优势。加强对技术本身的监督并不能防止无意的(更不用说有意的)滥用。
本文建立在所有层面(操作员、指挥官、政治领导人和公众)的信任对有效采用人工智能进行军事决策至关重要的前提下,并探讨了关键的相关问题。对人工智能的信任到底意味着什么? 如何建立和维持它以支持军事决策? 为了未来的指挥,人类操作员和人工代理之间的共生关系需要做出哪些改变?
当人类对人工智能的行为抱有一定的期望,而不考虑人工智能主体的意图或道德时,就可以说对人工智能的信任存在。然而,与此同时,信任不仅仅是技术性能和可靠性的功能——它不能仅仅通过解决数据完整性和可解释性的问题来保证,尽管这些问题很重要。军事人工智能领域的信任建设还必须解决军事组织和指挥结构、文化和领导方面的必要变革。要实现总体上适当的信任水平,需要采取全面的方法。除了信任人工智能的使用目的之外,军事指挥官和操作人员还需要充分信任支持任何特定人工智能模型的输入、过程和输出,并在如何信任这些输入、过程和输出方面获得充分的培训和经验。
然而,最困难、也可以说是最关键的层面是组织生态系统层面的信任。如果不改变军事决策的制度要素,未来在C2中的人工智能使用将仍然是次优的,限制在一个类似的框架内。任何新技术的有效引入,都需要对人类活动的组织方式进行根本性反思,更不用说人工智能这样具有变革意义的技术了。
优先考虑人力和体制层面并不意味着对技术施加更多控制;相反,它需要重新想象人类在不断发展的人机认知系统中的角色和贡献。未来的指挥官将需要能够领导一个真正的“整个部队”的多样化团队,整合来自军队、政府和民用领域的贡献。他们必须足够了解他们的人造队友,以便能够与他们合作并挑战他们。这更像是欧椋鸟的低语,而不是个别“翠鸟”领袖的天才。为了发展新的指挥和领导概念,国防部必须重新思考其方法,不仅是培训和职业管理,而且是决策结构和过程,包括未来总部的规模、地点和组成。
人工智能已经在改变战争,挑战人类长期以来的习惯。通过在训练和演习中进行更多的实验,通过探索C2的替代模式,国防部可以更好地为未来不可避免的变化做好准备。
以上是部分,该文属于长篇论文,完整报告由公众号【情报分析站】提供,若有意请前往获取
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.