![]()
2026年4月20日,美国兰德公司发布《AI如何侵蚀人类能动性的形式化模型》(A Formal Model of How Artificial Intelligence Erodes Human Agency)报告。报告基于社会选择理论,系统论证了AI如何削弱人类集体能动性,明确侵蚀路径、测量方式与不可逆风险,并面向政策制定者、科研人员与技术部署方提出应对方案。在报告中,集体能动性指人类就共享资源、制度以及物质与社会环境做出决策的能力。当人类丧失了依据其所选定及既有的决策流程去集体影响结果的能力时,其能动性便会随之削弱。
报告开的主要结论概述如下:
1.AI会侵蚀人类集体能动性,且流失可能不可逆
报告指出,多位AI研究者认为,AI的发展可能会导致人类能动性遭受不可逆转的丧失。
AI的广泛部署可能会引发社会系统的变革。在某些情景下,这种可能性尤为明显,例如一个目标错位的人工超级智能迅速夺取权力,并试图控制甚至消灭人类。然而,AI的广泛应用也可能通过在经济、文化和政治等领域逐步取代人类的参与从而导致社会系统与人类利益相脱节。
这些系统只有在人类参与的情况下才支持人类优先事项,一旦AI系统提供更具竞争力的机器替代方案,决策者将面临将人类参与最小化的压力。这种动态演变可能通过劳动力替代、算法生成内容,或政治判断的自动化等途径逐步展开。
同样,AI系统的自主程度(即在无需人类干预的情况下做出决策的范围和意义)决定了这些系统究竟是作为“参与者”发挥作用,还是仅仅充当“工具”。“工具性趋同”理论进一步揭示了目标驱动的自主性如何导致资源或权力的攫取。
此外,这种被取代的风险还会因“认知萎缩”效应而进一步加剧。自动化存在一种“悖论”:对AI的过度依赖会削弱人类的批判性思维能力及处理例外情况的能力;在某些特定的设计模式下,算法化管理手段可能会剥夺员工的自主权与能动性。随着时间的推移,这种能力的丧失将使得有效的监管变得愈发困难,而受影响方可能会失去质疑和进行理性辩驳的机会。
这表明,在某些领域中,AI系统可能会成为有效的决策参与者,且并不要求AI系统采取违背人类利益的行动。即使是一个与人类利益完美契合、且能可靠地做出人类所认可之决策的AI系统,也可能因排挤人类的参与而削弱集体的能动性。这种削弱之所以会发生,是因为人类广泛参与具有重大影响的决策,不仅具有工具性价值,还能维系有效治理所需的技能与制度性知识,维护话语正当性,并保持“选择余地”——即当情势或价值观发生转变时,能够调整方向的能力。
报告指出,社会系统面临着与人类利益脱钩的压力、自主AI系统可能表现出追逐权力的行为,加之人类认知能力的萎缩——所有这些因素都可能导致未来人类集体能动性的下降。
报告重点关注能动性丧失的不可逆风险,这一关注基于以下两个观察:
第一,许多AI带来的变化本质上是经济性的。AI驱动的自动化将深刻改变从个体劳动者到全球经济的各个层面。根据经济学中重大经济决策通常不可逆的原理,AI自动化带来的大规模变革同样不可逆。报告以自动化股票交易为例:算法交易已稳步取代人类交易员,考虑到硬件软件投资和物理位置的优化,交易公司很难退回人工交易时代。
第二,AI在组织和政府中的实施将直接消除人类在决策流程中的角色。逆转AI自动化需要重建已被拆除的人类参与能力,这成本极高。报告特别指出,随着人类对AI驱动流程的监督能力因不使用而退化,重建具备逆转能力的人力资本将是一项昂贵的工程。
二、AI侵蚀人类能动性可以通过三大指标进行科学测量
报告基于社会选择理论,构建以联盟为核心的分析范式,提出了科学测量AI对人类集体能动性的侵蚀程度的模型。该模型将关于能动性损失的直觉转化为可量化的指标,可以评估参与者的变化、其相对影响力,或者他们考虑的备选方案的变化将如何影响集体人类能动性。
在该模型中,一群个体参与一项决策过程。所谓“决定性联盟”(可以理解为“决策圈”),指的是一个群体中无论其他个体偏好如何,只要该联盟内部一致偏好某一选项,该选项即成为集体选择。个体若从联盟中移除后,该联盟仍是决定性的,则该个体是“无关的”。真正拥有决策权的,是那些“最小规模的决定性联盟”即其中每一个成员都不可或缺。
基于这一定义,报告提出三个可量化指标,用于衡量集体能动性的变化:决定性联盟的分布、最小决定性联盟的规模和最小决定性联盟的构成。
三、AI侵蚀人类集体能动性存在三种机制
报告指出,决策通常分为决定结构化任务和选择任务,前者定义问题、确定目标,并构建实现这些目标的选项清单,后者则涉及根据对后果的估计,从该选项清单中选择最佳方案。人的能动性涵盖了这两类任务:评估重要内容的能力和在不同选项中做出选择的能力。
AI系统可能通过两种渠道来改变能动性。若AI控制决策的结构化过程(例如,通过塑造问题的定义方式、确定目标的优先级,或筛选待考量的选项),它便能在任何具体的选择任务开始之前,就已预先决定最终的结果。而若AI控制的是选择任务本身(例如,在从备选方案中进行取舍的过程中取代人类参与者),那么即便决策的框架是由人类所确立,AI依然会削弱人类的能动性。该报告针对的主要为这种“选择任务”。
报告基于所构建的模型,验证了AI侵蚀人类集体能动性的三种机制。
第一种机制:人类剥夺(Human Disenfranchisement)。人类逐渐失去进入决定性联盟的机会,从“有影响力”变为“无关者”。报告以经济场景为例:AI自动化可能导致大量人口无法参与经济活动,进而失去对集体决策的影响力。
第二种机制:AI赋权(AI Enfranchisement)。AI实体直接取代人类成为决策者,加入决定性联盟。报告以10人多数决系统为例:加入1个AI实体后,系统变为11名参与者,但最小决定性联盟的规模几乎没有变化(从6/10变为6/11),仍然需要6名成员才能做出决定。然而,在所有可能的最小决定性联盟中,超过一半的联盟包含了AI。这意味着人类单独决定结果的可能性大幅下降。随着授权AI实体数量的增加,最终完全通过AI实体之间达成共识的可能性也随之增加。
第三种机制:AI议程控制(AI Agenda Control)。这是最隐蔽、最难防范的路径。AI不直接投票,而是通过控制哪些选项能够进入决策流程,来操纵最终结果。报告构建了一个具体场景:一个组织中存在两个人类决策圈,AI实体同时属于这两个圈子。通过引入精心设计的替代选项,AI可以利用两个圈子的决策权力,迫使最终结果符合AI的偏好。AI甚至可以使自身成为一个新的决定性联盟。从更宏观的层面看,这一过程是通过引入虚假的虚拟选项,分裂人类的偏好,并重新整合其决策权力,使其产生非预期的后果。重要的是,这一过程可能很难被检测到。
四、守住人类决策权的四大应对建议
面对AI对集体决策权的系统性侵蚀,报告提出四个方面的政策与实践建议:
第一,开发能动性评估。现有的AI评估主要关注能力、安全性和对齐,但并未评估对人类决策产生的结构性影响。研究人员应设计基准测试,衡量AI系统是否减少了人类在决定性联盟中的数量、是否获取了实质性影响力,或是否操纵了哪些方案能够到达人类决策者手中。
第二,确立人类参与门槛。在民主治理、军事应用、关键基础设施等高风险领域,政策制定者应考虑设定人类在决定性联盟中的最低存在要求。这些门槛应反映不同领域对正当性与可逆性的特定要求。美国国家标准与技术研究所等机构可将联盟构成作为AI风险的一个可测量维度,与现有的可靠性、安全性指标并列。
第三,长期监测联盟构成。渐进式失权的危险在于,没有任何单一变化看起来是灾难性的。各组织与政府应跨领域、跨时间追踪决定性联盟中的人类构成,关注权力集中的趋势。
第四,设定可逆性基准。各组织应评估:如果AI驱动的能动性丧失加速,它们是否能够恢复人类的决策。这需要维护必要的人类专业技能、制度知识和审议基础设施,以扭转局面。
资料来源:
Alvin Moon, Benjamin Boudreaux. A Formal Model of How Artificial Intelligence Erodes Human Agency. https://www.rand.org/pubs/research_reports/RRA4817-1.html
[本文为教育部国别和区域研究基地中国教育科学研究院国际教育研究中心成果]
![]()
本文由中国教育科学研究院“教育国际前沿”课题组整理,课题组负责人张永军,编辑刘强。点击左下角阅读原文可下载该文献。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.