近年来,随着人工智能技术迅速发展并被广泛应用于军事领域,主要大国都高度重视人工智能在军事领域的赋能作用,加大战略投入,力求在大国竞争和智能化战争中占得先机。与此同时,人工智能军事应用可能对国际和平与安全带来巨大挑战,日益引发国际社会各界的关注和热议,围绕这一问题的全球治理和讨论逐渐深入,已形成一些初步成果。
2月16日在海牙联合主办的第一届关于军事人工智能的国际峰会上,包括美国及中国在内的等60多个国家签署行动呼吁,敦促规范人工智能 (AI) 在军事领域的开发和使用,以规避意外后果的风险。
会议并宣布成立全球人工智能委员会,旨在澄清军事领域技术定义并确定负责任的在军事领域使用人工智能。
为什么各国如此重视?人工智能在军事应用中又会带来哪些风险和挑战呢?今天就听作者粗略的讲解一下。
首先说说技术风险。在网络安全课题日益重要的今天,作为互联网应用技术之一的人工智能依然也面临着各种网络攻击行为(例如,因为存在系统漏洞受到攻击)。同时,其也存在应用软件所共有的 “低质量代码缺陷” 和 “受污染输入数据” 可能导致系统的不稳定运行。由此可能导致制定有效的测试、评估、验证标准和程序等一系列问题。
其次再来说说军事应用风险。人工智能军事应用的武器系统快速发展,有可能会引发各国在此领域展开军备竞赛,加剧国家之间的紧张关系。人工智能军事系统在高风险地区被部署或使用,有可能造成意外事件或冲突升级。特别是无人武器系统向民间的扩散,很有可能被恐怖分子用于恐怖袭击。
第三是战略稳定风险。人工智能技术被应用在外空、网络等新领域,有可能造成大国战略安全关系的不稳定。例如,人工智能系统被纳入核指挥与控制系统、早期预警系统中,将对大国之间的核战略稳定构成潜在风险,如果人工智能系统失效或失误,将可能造成重大核意外事件或决策失误,甚至引发核战争。
第四就是法律伦理风险。人工智能武器系统研发、部署和使用应遵循何种国际法义务?特别是致命性自主武器系统(Lethal Autonomous Weapons Systems, LAWS)如被使用,国际人道法应如何适用?是否应始终确保人类对人工智能武器系统的使用权和决策权?如果发生意外事件,由谁来承担相关责任?
仿佛看到了电影《终结者》系列中的场景,人类自己设计的具有人工智能的 “天网系统” 启动了所有的无人武器,成为了毁灭人类的幕后黑手。必须要提前避免这种灾难的发生。
能力有限,分析的不到位的地方,还请读者见谅并恳请多多指正,欢迎在评论区里留言。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.