随着人工智能在城市中由工具性应用转向治理核心,全球城市面临新的治理模式抉择:AI技术应作为人类能力的延伸,抑或逐步取代人的决策作用。这一选择不仅关乎城市运行效率,更触及城市治理的逻辑根基。面对“人本主宰”、“算法主宰”的排他性选择,实现人定边界与算法优化相耦合的“共治主宰”模式或成为新的治理答案,国际城市需在AI共治体系的问责机制、信任建构与制度韧性上形成体系化设计,以顺利翻越技术转型关口。
1. 人本主宰:最终决策与责任归于人,AI仅作受约束的辅助
在人本主宰模式下,人类作为城市发展的核心主体设定战略目标、伦理底线与最终决策边界,AI仅扮演受约束的执行与优化角色,确保技术始终服务于人类价值而非反噬社会。这一模式的核心在于透明规则、人工复核与公众参与的层层防护框架:部署前,通过伦理审查与影响评估明确AI边界,避免算法越界;运行中,嵌入人类把关机制,如专家审核高风险输出,确保偏差实时纠偏;事后,建立责任追溯链条,将决策权与问责权统一于人类主体。这种嵌入式约束将城市治理从技术乌托邦的幻象转型为“人本导向”的稳健生态,不仅维护人类主权,还通过制度化监督放大AI的治理效能。据OECD 2025年报告,采用人本模式的欧洲城市AI项目可实现失败率降低15%,居民信任指数提升20%的效果。
人本主宰的优势在于,它筑牢公平与问责的制度底线,确保AI的强大效能不偏离人类伦理与法律轨道:算法虽高效,却可能放大隐性偏差(如种族偏见),人类纠偏机制则提供道德缓冲;技术故障频发时,人工主权保障系统连续性,避免城市瘫痪风险。据世界经济论坛2025年报告,人本模式城市社会稳定指数升12%,远高于算法主导模式。然而,这一模式要求城市制定清晰规则,如强制算法可解释性(XAI标准)、决策“人类背书”协议,以及公众监督委员会,以确保居民声音从反馈渠道直达核心议程,从而将AI从工具普适为人类赋权的战略支柱。
2. 算法主宰:效率高于解释与问责,城市运行受平台与模型支配
算法主宰模式将AI置于城市治理的核心决策枢纽,追求极致效率与自动化优化,但以牺牲解释性与问责为代价,导致技术封闭放大偏差与信任危机。这一模式的内在逻辑在于全自动化闭环:AI通过自学习算法自主迭代治理参数,从资源分配到应急响应实现毫秒级响应与资源极致利用。然而,这一极端效率导向忽略了人类不可或缺的伦理判断与上下文敏感性,易将城市运行简化为“黑箱”模型,受少数平台算法支配。全球城市实践已暴露算法主宰的致命缺陷,出现很多将效率神话演变为信任崩盘的警示案例。
算法主宰的另一隐忧是城市被少数科技巨头“绑架”的“主权陷阱”:关键算法、数据管道与云基础设施高度集中在少数平台之上,城市对其既缺乏技术可替代性,也缺乏谈判与监管能力。一旦平台以商业机密为由拒绝公开模型逻辑,或因涨价、合规争议乃至地缘政治风波而突然调整服务策略,城市在公共服务、社会保障、交通调度等核心领域便可能陷入“被动断供”或“被迫迁移”的困境。更为隐蔽的是,当治理流程、信用评价与资源分配长期依赖单一算法体系时,平台规则便在事实上取代了公共协商,治理问责空间被悄然压缩。这种模式通常将效率凌驾于公平与韧性之上,忽略人类不可替代的道德判断与适应性,易导致“技术乌托邦”的幻灭。在AI发展初期,城市应避免此模式,而是通过多元化与伦理审计,防范算法主宰的系统性风险,确保AI服务于人类而非反之。
3. 共治主宰:人定目标与边界,AI负责编配与优化,规则公开透明、可纠偏
共治主宰模式可以视为AI时代城市治理的“折中最优解”:由人来确定战略目标、伦理边界与责任链条,由AI负责在既定边界内做路径优化和资源编配,全程以公开透明、可解释与可申诉为硬约束。这一模式的核心是把AI嵌入一个“人主、机辅”的治理框架,而不是让算法单方面决定城市运行。具体而言,由政府、专家和市民代表组成的伦理或治理委员会,负责确立价值底线、敏感领域禁区以及AI可用场景;AI系统则在这些规则之内进行调度优化,并通过可解释性工具(XAI)向决策者和公众展示“为什么这样推荐”“依据是什么”。同时,通过在线门户和开放接口,居民与第三方机构可以对算法决策提出质疑、申请复核和给出改进建议,将算法运行纳入日常治理监督。OECD指出,相比抽象的“政府信任”,居民对地方政府在具体服务中的公平性、可理解性与可沟通体验,更能有效提升其对数字技术和AI应用的信任感,这为共治模式提供了清晰的实践指向。
在制度设计上,共治主宰并非空泛口号,而是可以拆解为一套可操作的治理工具箱。第一,制定“通俗版规则手册”,通过可视化界面和简明示例向居民说明AI在何处使用、能做什么、不能做什么,降低信息不对称。第二,建立多层纠错与兜底机制,例如在高风险场景中设置“AI预警+人工复核”的双重流程,对异常结果或投诉做到有渠道、有时限、有记录。第三,常态化多方参与,通过企业和科研机构参与的“算法沙盒”、居民论坛与听证会,定期收集一线使用者与受影响群体的反馈,将其纳入模型更新与规则修订。第四,构建评估闭环,将偏差率、服务覆盖度、不同群体满意度等指标作为监测AI治理表现的关键指标,并定期向社会发布评估报告。世界银行在其报告中强调,只有当公民在规则设定、过程监督与结果评估中都拥有实质性参与渠道时,AI才可能在提升效率的同时增强制度公平与城市韧性。综上,共治主宰并不是简单的“多听听意见”,而是在制度上将“人类主权+算法效能+公开问责”捆绑在一起,通过组建跨部门的“AI共治理事会”,把试点经验逐步推广到全市,从而在AI时代重建一种既追求效率又维护公平与信任的新型城市社会契约。
(本文来自《国际城市发展报告(2026)》总报告,本文基于国际组织、全球智库、全球性企业和各国政府部门发布的关于人工智能与城市治理的相关论文、分析报告、法规文件、案例资料,通过机制剖析,系统分析人工智能对城市发展和治理带来的系统性、结构性和颠覆性重塑。大语言模型参与了文本的主题的分类和内容结构化整理。)
![]()
来源:《国际城市蓝皮书(2026)》研究组林兰 屠启宇 苏明亮
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.