![]()
![]()
AI这匹潜力无限的“骏马”正驰骋向前,如何为其套上“向善”的缰绳?
文/钱学胜
复旦大学智慧城市研究中心高级研究员,《科学画报》编委会人工智能专委会副主任委员。
人工智能(AI)正前所未有地重塑着我们的世界。从科学研究到艺术创作,从工业生产到数字娱乐,AI已深深嵌入社会生活的方方面面。然而,正如历史上出现的每一项颠覆性的新兴技术一样,AI的机遇与风险始终并存。例如,深度伪造侵蚀着公众信任,生成式AI引发版权归属之争,等等。一系列挑战考验着我们驾驭这一新兴技术的能力,也向我们揭示了一个事实:“向善”并非是AI与生俱来的能力,其发展轨迹并不自动导向增进人类福祉的坦途。
于是,“AI向善”理念应运而生。它强调AI发展应以造福人类为宗旨,遵循伦理准则,保障安全可靠,促进包容与可持续发展。
伦理先行
构建全球性共识
构建全球性共识是基础性的第一步。早在AI技术席卷全球之初,一批前沿学者和从业者便开始了对AI伦理的探索。2017年,在美国阿西洛马召开的人工智能安全会议首次提出了“有益智能”概念,系统性地强调了AI研发应以服务人类、避免潜在危害为根本目标,为后续的全球探讨奠定了基调。
此后,国际社会围绕AI伦理的讨论日益深化。联合国专门机构国际电信联盟自2017年起,在瑞士日内瓦定期举办“善用人工智能(AI for Good)全球峰会”。2021年,联合国教科文组织通过了首份关于AI伦理的全球性框架《人工智能伦理问题建议书》,确立了透明度、公平性、责任与隐私保护等十大原则。
随着AI能力的飞速跃升,AI全球治理进程明显加速。2023年,英国主办了首届全球人工智能安全峰会并发布了《布莱切利宣言》,呼吁就AI前沿模型的安全性展开国际合作。法国通过人工智能行动峰会,推动在AI伦理测试与一致性评估上开展合作。2024年3月,联合国大会通过了首个关于AI的全球决议,标志着AI治理已成为最高级别的全球政治议程。
以上的一系列行动清晰地勾勒出一条从学术倡议到政府共识,再到全球政治决议的演进脉络。在这一过程之中,“中国智慧”不容忽视。中国先后发布了一系列重要文件和倡议,系统性地阐述了在推动发展、确保安全和维护公平等方面的主张,为全球AI治理贡献了“中国方案”。目前,中国正在积极倡议成立世界人工智能合作组织,这也预示着一个更加开放、包容和有效的全球AI治理新时代即将到来。
技术向善
为代码植入“价值观”
共识原则离不开技术实践的落地。如何在算法设计与系统部署中嵌入“善”的价值观,是技术领域的关键挑战。近年来,一系列旨在增强“智善”水平的技术方向得到了快速发展。
首先是可解释AI。以深度学习为代表的传统AI模型常因其决策过程不透明而被诟病为“黑箱”。可解释AI的宗旨就是打开“黑箱”,为用户和监管者提供模型可理解的理由。这不仅有助于技术信任的建立,也为发现并修正模型的潜在偏见提供了可能。
其次是AI对齐,其核心是确保AI系统的目标与人类价值观一致。这不仅仅是为了防止AI执行有害指令,更涉及如何使AI在面对模糊或复杂情境时,能够准确理解并遵循人类社会的伦理规范与价值偏好,避免出现“目标错位”导致的意外后果。
最后,“去偏见”技术旨在减少训练数据或模型结构中隐含的性别、种族、年龄等既有歧视性偏差,以提升AI决策的公平性。联邦学习、差分隐私等隐私保护计算技术,使不直接暴露原始敏感数据的模型训练成为可能,有效平衡了AI发展与隐私保护。这些技术共同构成了一个“AI工具箱”, 为构建负责任、可信赖的AI系统提供了可实现的路径。
法规就位
从原则到实践的“硬约束”
伦理共识与技术善意需要转化为法律规范,才能形成有效的治理效力。近年来,世界主要经济体都在积极探索将AI伦理原则落地为法律实践的路径,形成了各具特色的监管模式。
欧盟在2024年完成了《人工智能法案》的立法程序,将AI应用划分为四个不同的风险等级,并施以不同强度的监管措施。这种精细化的“风险金字塔”模式,力图在保障公民基本权利与促进技术创新之间取得平衡。与欧盟的强监管不同,美国选择了以行业标准和自愿性框架为主导的“软法”路径,这种模式强调灵活性和创新激励,但也被认为在统一性和强制力上有所不足。
我国的AI法律法规体系建设路径有别于欧美。从2017年《新一代人工智能发展规划》提出建立AI法律法规、伦理规范和政策体系,到2025年《关于深入实施“人工智能+”行动的意见》提出“完善人工智能法律法规、伦理准则等,推进人工智能健康发展相关立法工作”,显现中国将立法与实践协同并举,审慎而又系统的推进思路。
多元共治
凝聚社会力量的“生态系统”
人工智能治理不仅需要伦理的边界、技术的框架法律的缰绳,更需要全社会各方力量的共同努力和监督。
首先,学术机构是推动AI治理的主导力量。美国坦福大学以人为本AI研究所、我国清华大学人工智能国际治理研究院等顶尖学术机构,始终在政策研究与国际对话中扮演积极角色,持续不断为复杂的AI治理问题提供深刻洞见和长远解决方案。
其次,技术组织为AI技术提供方向指引。例如,电气与电子工程师协会发起的全球自主智能系统伦理全球倡议,通过将抽象的伦理原则转化为可操作、可衡量的具体技术标准,推动AI和自主系统以符合伦理、以人为本方式发展,其成果深刻影响着现今相关技术标准的制定。
再次,开源社区也是多元共治的重要基石。这些社区推动了模型与工具的开放与共享,使公众得以审查复现和改进算法,这不仅提升了透明度,也增加了公众监督可能。
从次,产业界的力量是不可或缺的。目前,国际主要科技公司已经成立了前沿模型论坛、人工智能联盟等行业组织,确保前沿AI模型的安全与负责任开发。一批中国代表性的科技企业共同参与了《人工智能安全承诺》倡议并自愿披露安全实践成果,迈出AI自律共识向实践落地的关键一步。
最后,科普工作者、媒体与具备数字素养的公众也扮演着重要角色。其通过普及AI知识、展开公共讨论、监督技术滥用,持续塑造AI发展的社会规范和价值导向。唯有多元主体积极参与,才能形成一个稳健、包容且不断适应技术变革的AI治理生态系统。
从 “向善” 到 “智善”
回望推动“AI向善”的全球行动,人类已从原则共识走向技术实践与制度创新,初步构建起涵盖伦理规范(道)、技术工具(术)、法律框架(法)与社会共治(人)的治理体系。然而,前路依然充满挑战,技术迭代与治理演进间的“步调差”依旧显著。
展望未来,AI的航向归根结底取决于我们今天的选择。国家层面是协同合作还是封闭孤立?产业层面是开放包容还是巨头垄断?对身处其中的每一位个体而言,应持续提升AI素养,让每一次与AI的交互都成为推动向善的微小力量,共同推动AI最终抵达“智善”境界——这不仅关乎AI, 更关乎我们智能时代的未来。
![]()
![]()
点击图片订阅
2026年《科学画报》
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.