![]()
2025年10月,美国国防大学国家战略研究所颠覆性技术与未来战争中心的伊莉丝·安内特(Elise Annett)与詹姆斯·焦尔达诺(James Giordano)在《Open Journal of Philosophy》期刊发表《人工认知的逻辑与边界:军事应用的范例》(The Logos and Limits of Artificial Cognition: The Exemplar of Military Use)学术文章。文章立足人工智能系统加速发展与部署的现实背景,围绕计算、认知与意识的边界问题在哲学层面展开深度探析。文章强调,缺乏可验证的自我反思意识,人工智能便无法满足真正能动性的存在与伦理条件,其角色应始终局限于人类监督与问责框架下的工具属性,从而为军事人工智能的发展与应用划定了核心边界。
一、认知的哲学本质与判定标准
(一)笛卡尔“我思故我在”的核心启示
人工智能的快速发展引发了对“机器是否能够思考”这一根本问题的重新审视。笛卡尔提出的“我思故我在”(cogito, ergo sum)不仅是存在论主张,更确立了自我反思在思维本质中的核心地位——思考的精髓在于对“自身正在思考”的自我认知,即“思维实体”(res cogitans)所具备的自反性确认。这一框架为区分真正认知与单纯计算输出提供了关键标尺:人工智能系统虽然能执行逻辑运算、模式识别、语言生成、自适应调整等看似具有认知属性的任务,但这些过程是否为系统自身所感知,仍是未解之谜。虽然人工智能的计算过程在速度与效率上能对标甚至超越人类认知的某些方面,但却缺乏存在性的内在维度,即无法形成“我正在思考”的主观体验,因此尚未满足笛卡尔哲学框架下对认知的核心判据。
(二)认知的核心构成要素
神经科学家安东尼奥·达马西奥(Antonio Damasio)的研究进一步明确了认知的功能阈值:认知不仅是系统执行任务或模拟思维的外在表现,更关键在于系统能否对自身运作产生主观体验。
文章将真正的认知界定为三大核心要素的集合。一是递归自我意识,能够持续反思自身的思维过程与状态,形成“思考者认知自身在思考”的闭环;二是指涉主观性,具备区分自身内部状态与外部世界的能力,能够将决策与行动置于包含自身在内的框架中进行定位;三是伦理意向性,能够理解行为的后果与意义,在决策中融入价值判断与责任考量。
这些要素共同构成了“心智”(mind)的本质,使其区别于单纯由数据输入、算法运算与行为输出构成的机械系统。正如“拥有大脑,却成为心智”(has a brain, but is a mind)的论断所揭示,心智是神经系统在具身化与环境嵌入过程中,通过感觉、认知与体验的复杂互动形成的有机整体,而非部件的简单叠加。当前人工智能虽然在功能上不断精进,甚至出现能够追踪不确定性、实时调整行为的自建模系统,但仍缺乏对自身运作的现象学觉知,尚未跨越从“计算”到“认知”的本质鸿沟。
二、认知与道德能动性的关联
道德判断与伦理推理根植于认知的复杂性,其核心并非孤立的逻辑运算,而是在记忆、不确定性、可能性与意义协商的动态关系中形成的关联过程。哲学家丹尼尔·丹尼特(Daniel Dennett)提出的“有能力而无理解力”(competence without comprehension)精准概括了当前人工智能的局限:人工智能能够高效执行复杂任务(具备能力),但无法真正理解自身行为的本质、归属及后果(缺乏理解力),因此难以形成真正的道德认知与伦理决策能力。
道德能动性有两大前提:一是能够反思行为后果,不仅关注外部影响,更能关联自身的存续与发展进行考量;二是能够在具体情境中为自身决策承担责任,将行为置于价值框架中进行权衡。这要求主体必须具备指涉主观性与伦理意向性,能够在人际网络、分享理解与责任关系中开展伦理审议(ethical deliberation)。
将道德判断委托给人工智能并非中性行为,而是赋予其道德责任的过程。在治理、战争、医疗等具有重大道德权重的领域,人工智能的介入可能导致有意识的集体审议过程被无自觉的机械决策取代,进而侵蚀伦理决策的本质根基。文章强调,关键问题并非人工智能能否变得与人类相似,而在于人类是否会将认知过程及相应的后果责任拱手让渡给人工智能,这一趋势可能会导致伦理框架崩塌。
三、军事人工智能应用的核心伦理挑战
军事领域对迭代自主性人工智能系统的探索与整合,已远超单纯的技术革新范畴,而是对伦理、责任与能动性的根本性重构。人工智能系统在速度与精度上的优化特性,使其在涉及武力使用与致命行动的决策任务中呈现出显著吸引力,但同时也催生了深刻的认知与伦理问题,核心聚焦于 “责任鸿沟”(responsibility gap)——随着自主系统具备自我导向行动能力,意图、行动与后果的归属从传统指挥链中脱离,导致道德与法律责任的归属变得模糊、分散甚至无法追溯。
(一)行动与责任的分离
人类决策的核心特征在于对行动后果的预判与责任承担,决策者作为道德主体,其行为始终受反思、觉知与伦理责任的引导。而自主军事人工智能系统的决策仅基于算法优化效率的目标,缺乏对行为伦理权重的内在认知,无法承担道德责任。在人工智能武器系统的指挥与控制中,人类干预的程度与时效性存在差异,当系统被授权执行致命行动时,可能出现“行动由机器发起、责任却无人承担”的伦理真空,这一状态严重背离了战争行为的责任伦理根基,降低了军事问责制的核心价值。
(二)认知参与与伦理后果的脱节
人类与世界的认知互动具有反思性、适应性与模糊性容忍度,决策过程始终伴随着对不确定性的权衡、对复杂情境的适配以及对后果的审慎考量,这种认识论层面的深度参与是承担伦理责任的前提。而人工智能的认知模式本质上是技术性的,为了最小化不确定性、优化预设目标,其运作仅遵循预设规则,缺乏对战争情境中伦理维度的敏感性——如对比例原则的灵活应用、非战斗人员保护的细微考量、意外后果的道德权衡等。人工智能虽然能提升军事行动的战术效率,却可能因认识论层面的局限导致伦理后果被忽视,进而破坏战争行为正当性的核心基础。
(三)冲突升级的潜在风险
自主军事人工智能系统的部署可能降低冲突发起的门槛,使军事行动脱离约束。不同国家或组织的人工智能系统可能基于不同的伦理预设与规则体系开发,缺乏规范性标准的统一性与教义的一致性,这一现状可能加剧伦理观念相悖的人工智能系统间的对抗风险,进而引发冲突升级,最终导致难以预估的人类代价。
四、军事人工智能的合理定位与治理方向
文章明确主张,在人工智能能够实质性参与定义道德决策的递归、分析情境敏感情况的过程之前,其在军事领域的角色应被严格限定为“人类监督与控制下的工具”,而非独立的决策者或行动者。军事决策本质上是伦理行为,深深植根于历史先例、文化传统与价值判断,必须基于对后果的充分考量而非脱离情境的机械执行。
有效的军事人工智能治理需要跨学科的协同推进,整合伦理学家、军事战略家、技术专家与哲学家的智慧,抵制单纯追求速度与效率的技术诱惑,重申道德判断的核心地位。具体路径包括三方面:一是开展实证研究,探究社会、指挥官与作战人员对军事人工智能决策的解读与响应机制;二是保持政策与准则的灵活性,构建能够适应技术发展的动态伦理框架,充分考量道德决策中的不确定性因素;三是强化人类在决策链中的核心作用,明确人类监督与问责的具体边界与实施机制,避免责任模糊化。
当前美国国防部与北约已出台相关政策文件,为军事人工智能的发展奠定了初步基础,但仍需进一步细化伦理规范与责任划分,确保技术进步不以牺牲道德责任与伦理操守为代价。
五、结语
人工智能技术虽然展现出强大的功能潜力,却始终笼罩在“伪理解”的阴影之下——它能够模拟人类判断却无法真正拥有,能够计算却缺乏良知,能够执行却毫无共情,其能动性本质上是一种幻觉。这一特征在军事领域尤为危险,因为战争中的武力使用、致命行动、正义准则与记忆传承等核心要素,远超算法所能涵盖的范畴,需要人类的道德反思与价值判断作为根本支撑
免责声明:本文转自启元洞见。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.