![]()
作者:张红(武汉大学法学院教授,法学博士)
出处:《比较法研究》2026年第1期
目次
一、规制AI:从科技伦理到人工智能伦理
二、人工智能伦理的“物化”趋势
三、物化趋势下人工智能伦理的双重面向:技术工具与数字规则
四、以私法为核心的人工智能伦理规范化
五、迈向“人机共生”时代的人工智能伦理规范
⚖️
摘要:在“AI+”社会,人工智能伦理发挥着法律效能,不断形塑着未来社会“人—机”关系。为避免具备实质规制力的人工智能伦理脱离法律范畴,人工智能伦理须完成规范化的转向。人工智能伦理的规范化进程,出现了“道德物化”“规则物化”双重现象。人工智能兼具技术工具与数字规则双重属性,人工智能伦理具有相应的工具伦理内涵和规则伦理内涵,其规范化的工作重心应从“安全风险防控”转向“人类价值对齐”。基于私法的自治性、宣示性和开放性,人工智能伦理规范化的主要场域应为私法。人工智能工具定位下的伦理宜借助反身法模式进行程序性架构,人工智能规则定位下的伦理可以通过新增权利、义务以及禁止性规定的方式进入法律系统,并藉由人格权法、合同法、侵权法等规范中的开放条款,借助法律的筛选机制实现伦理效力与法律效力的对接。
关键词:人工智能伦理;道德物化;技术工具;数字规则;规范化
01规制AI:从科技伦理到人工智能伦理
随着人类进入“AI+”时代,人类对“AI支配人类”之忧虑愈来愈甚,犹如当年对核武器之恐惧。例如,在中国,外卖平台为追求效率制定了过度严厉的餐饮配送时限,导致外卖配送人员疲于奔命、闯红灯,交通事故频发。在英国,一男子向机器人女友诉说刺杀女王的计划,得到计划很明智、行为很英勇的“鼓励”,并最终爬入温莎城堡刺杀英女王。此外,“AI换脸”“AI复活逝者”等伦理问题,也不断侵蚀着人们的法律权益。对此,马斯克等3万多名行业高管与专家签署公开信,要求暂停6个月训练比GPT-4更为强大的人工智能。但是,尤应需要重视的是,人工智能带来的风险远不止侵权风险。因为人工智能还具备规则属性,并由此衍生出社会话语权、资源分配失衡,例如算法歧视、算法赋权失衡、在数字空间对法律的替代等风险。这就对现有研究中侵权风险规制模式提出了系统性挑战,对人工智能伦理提出了更高的要求。
规制AI向善,始于伦理,但终将依靠法律。科技伦理法治化是现代各国法治建设的普遍性重大命题。我国是AI大国,开世界之先河,率先在国家基础性法律《中华人民共和国民法典》(以下简称“《民法典》”)中规定了科技伦理的相关规范。《民法典》第1009条规定:“从事与人体基因、人体胚胎等有关的医学和科研活动,应当遵守法律、行政法规和国家有关规定,不得危害人体健康,不得违背伦理道德,不得损害公共利益。”该条规定为科技伦理入法的基本规则,自当可类推适用至人工智能,人工智能伦理规范化之命题得以证立并由此展开。在实践中,受人工智能的支配特性和规则属性的影响,人工智能内蕴的伦理与国家法律和监管体系发生了嵌合。对此,本文讨论的人工智能伦理规范化不是用法律手段干预人工智能伦理,而是人工智能内嵌伦理发挥法律效能这一社会现象引发的新型问题,进而法律系统需要回应如何形塑与接纳此类人工智能伦理,并明确此类人工智能伦理的司法适用。
一般而言,科技伦理被视为开展科技活动需要遵循的价值理念和行为规范,规制对象是“开展科技活动的人”,且秉承技术中立原则,较少关注技术本身。受人工智能特性的影响,人工智能伦理则指向的对象是人工智能本身,突破技术中立,关注的是人工智能应当内嵌的伦理内容。具体而言,人工智能伦理是指在人工智能全生命周期中,为确保技术向善与人类价值对齐,智能系统及其相关主体所应遵循的价值准则与行为规范。它在内涵上涵盖了算法伦理,但两者处于不同维度:算法伦理侧重于微观的技术逻辑,旨在解决数据偏差、代码歧视及黑箱不透明等技术性问题,是实现伦理目标的底层路径;而人工智能伦理则在算法伦理的基础上,进一步延展至智能体在社会交互中的主体性表现与权力规制,涵盖了从底层代码正义到上层社会互动的所有维度。简言之,算法伦理是人工智能伦理的技术内核,人工智能伦理则是算法伦理的社会化展开与规范化升华。例如《人形机器人治理导则》第2条规定,“及时制定人形机器人应遵守的伦理准则和道德规范”。人工智能伦理对科技伦理的超越,是因为人工智能伦理在规制功能上发挥着法律效能,在实体内容上与民法基本原则、人格权益等法律内容的日益重合。在此背景下,世界各国和国际组织正采取多种方式探索将人工智能伦理纳入制度轨道的方案,我国政府也相继发布了《国家新一代人工智能标准体系建设指南》《新一代人工智能伦理规范》《人工智能伦理治理标准化指南》等文件,但相关的立法工作只是道德伦理系统内部的基础提炼,没有实现与具体规范的有效对接,难以为相关场景下的法律适用创造切实的条文依据。
在理论界,现有研究集中在伦理规制和法律规制的区分治理,从监管治理视角架构人工智能伦理的法律规范体系,以及伦理治理的“反思法”实现等方面,仍秉持惯性思维仅将人工智能视为被规制的对象,忽视了人工智能伦理本身所具有的规范属性,未能全面剖析人工智能伦理的法律性质,未能实现与已经获得法律确认人文精神的对接,也未能回应在伦理业已规范化背景下如何发挥法律效力。对于人工智能伦理的规范化问题,有论者以生物医药伦理为参照,提出了人工智能伦理“法化”的理论基础和必要条件,但其论述着眼于宏观的法律体系,没有立足于具体的伦理内涵,更未能更进一步从具体规范出发系统建构人工智能法治化的实现机制。由此,亟需从为什么、是什么、怎么办三个层面明确人工智能伦理规范化的理论体系,以通过法治手段建设契合人类价值体系的“AI+”社会。
02人工智能伦理的“物化”趋势
人工智能作为理性智能体,本质上属于信息处理“系统”,以数据为运转与成长的“资源”。人工智能、算力、大数据等技术的发展与深度协同,模糊了实体、数字和生物世界的界限,展现出物化的特征。物化是一个哲学概念,它是指“把抽象的道德理念通过恰当的技术设计,使之在人工物的结构和功能中得以体现,从而对人的行为产生道德意义上的引导和规范作用”。人工智能伦理的物化,强调人工智能技术本身负载着道德,而不是技术中立的,人的生活世界是人与物的交互而产生的,而且技术不断形塑着主体。这一变革不仅仅是一场纯粹的工业革命,更是一场涉及制度与行为的、世界性且影响深远的治理革命,决定了人工智能伦理规范化的基本动因。
(一)人工智能的“道德物化”现象
在数字时代,人工智能的独立性、自主性不断增强,快速激发了社会生活中的道德物化现象。在人工智能领域,道德物化在立法上已经有所展现。《生成式人工智能服务管理暂行办法》第4条规定,提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,坚持社会主义核心价值观。这实际上就是要求人工智能坚持正确的价值取向,充分发挥道德教化功能。
虽然道德物化理论产生自物质世界,且受到“技术人工物不应有意向性和自由”的质疑。但是在人工智能使用过程中,基于“请求-回应”的交互模式,形成了人与计算机相融合与协同的共生关系,并不断凸显与强化“道德物化”现象。例如大语言模型具备“隐形说服”的算法设计,在与人类进行交互时,会倾向于改变用户的行为和观点。在数字时代,随着算法技术对社会生产生活嵌入的不断深化,“道德物化”已经具有现实普遍性,不断塑造着数字空间的人之形象,影响人的主体地位。良好设计的智能算法可以通过调控人对道德的选择,发挥教化效能。从数字空间的运作模式看,智能算法具有自运行性,而运行架构则为技术设计者提前设定,且受已有数据的影响,很容易形成“信息茧房”,无法与人进行完全自主、自由的实时交互。这就形成了现代单向度的社会环境,并由此在网络空间孕育出单向度的人,进一步强化技术对人的形塑功能。
为应对人工智能对人的教化效能,人工智能的本身德性应备受重视,尽量规避歧视性算法、诱导性算法、工具理性算法等不当算法的出现。这就要充分发挥人工智能服务提供者的主体责任,确保人工智能向善。此时,人工智能服务提供者不仅是专业技术人员,还应当成为“伦理学家”,将符合社会道德要求的伦理规则嵌入人工智能,以使人工智能可以更好地开展与人的有效互动,发挥道德伦理层面的规训功能。
在理论层面,“道德物化”受到义务论伦理学和德性伦理学的批判,同时存在工程师过度赋权、未考察科技系统的价值敏感性问题、忽视工具在生产环节的价值内嵌问题。而在数字时代,算法天然具备道德物化之特征,可以影响和改变人们的认识习惯和行为方式,形塑人的价值观和行为偏好。此时,人工智能发展已经不是应否贯彻“道德物化”的问题,而是如何更好地发挥道德物化功能的问题。受人工智能功能强化的影响,“道德物化”的不足被无限扩大,社会负面作用彰显,例如“最严算法”“透明社会”等。对此,需要借助法律的强制力将符合人类价值的道德伦理嵌入智能算法,以在法律的保障下更好地发挥对人的教化功能。
(二)“规则物化”:人工智能与数字规则的一体化
智能算法与社会规则的交融是数字时代最为重大的变革之一,进而推动“算法权力”的出现。受此影响,在人工智能适用场景下,就产生类似于“道德物化”的“规则物化”现象,即随着具备自主性的人工智能具备规范属性,进而对人类产生法律意义上的规制与规训。
这种“规则物化”的论证基础即在于人工智能与数字规则的一体化。正如“代码即法律”的著名论断所言,算法、代码被大规模用于决策,这导致人工智能的身份发生了根本性转变:其不仅仅是法律的规制对象(object of regulation),更成为一种强大的规制工具(tool of regulation)。
算法作为指导网络运行的一系列指令,是计算机在数字空间执行所有事情的基础。在数字空间,智能算法展现出了规训功能和法律属性,可以架构用户的行为规范。随着人工智能对社会嵌入的普遍化,算法的规训性影响力已经涉及社会的各个方面。例如,购物平台排名算法可以直接决定平台内经营者排序和可能获得的流量,进而决定其商事效益。由此可见,算法具备辅助甚至取代公权力决策的社会效能,并可以直接影响被支配对象的权益,形塑数字空间的运行秩序,已经逐渐发展成为一种新兴的技术权力。
随着数字空间运作的复杂化和人工智能功能的强化,人类对数字社会运作的参与越来越少,而人工智能发挥决策功能的场景则在不断增加。在相关场景中,智能算法规范化推动人工智能内蕴的伦理成为数字空间法律的“价值内涵”,成为数字活动中的硬性约束。例如,在美国,有些招聘算法可能会不公平地筛选掉黑人简历,剥夺其就业机会。信贷评分算法往往对少数族裔群体存在偏见。许多金融机构的信贷算法基于历史贷款数据进行训练,这些数据本身可能反映了社会中固有的不平等。美国许多少数族裔在贷款申请中面临更高的拒绝率,即使他们的财务状况与白人申请人相似。保险公司越来越多地使用人工智能算法来评估客户的风险,这些算法通常依赖于客户的地理位置、职业等信息进行风险评估,这些信息并不总是与实际的保险风险直接相关。例如,居住在低收入或犯罪率较高社区的居民往往被算法认定为高风险客户,导致他们被收取更高的保费。面部识别算法被广泛应用于执法和公共安全领域,以用于识别和追踪人们的身份。然而,研究发现,许多面部识别系统在识别有色人种时的错误率远高于识别白人,这种系统性偏差导致有色人种更容易被错误识别,进而在执法过程中遭遇不公正的对待。由此可见,在数字空间,算法在一定程度上具备了法律的规制功能,出现了与法律重合的现象。从现有立法看,两者重合体现在多个方面,即包括具体内容的重合,例如隐私保护和信息泄露规制;也存在原则层面的重合,例如公平原则、安全性原则;还存在治理目标的重合,例如增进人类福祉、提升伦理素养。
在“AI+”社会,人工智能的伦理治理框架与国家法律和监管体系产生了嵌合,甚至在数字空间与法律日益一体化,可以决定数字空间的互动秩序,影响相关主体的实体权益。在此语境下,人工智能既是规制对象,又是规制工具,亦是制度本身。对此,法律系统不能忽视人工智能内蕴的伦理规则对社会影响强度的提升、范围的扩张,应积极推动部分人工智能伦理的法律进阶,对其提出更为严格的要求和规制。例如,在物理世界市场中,商品销售价格存在差别是普遍现象,并被认为可以提升社会生产效率,很多时候具有经济合理性。而在网络空间,因为人工智能与数字规则的一体化,形成了新型技术权力。此时差别性待遇就存在了违法性。这是因为人工智能具备规范功能,并被相关主体不当利用。对此,《互联网信息服务算法推荐管理规定》第21条规定,应当保护消费者公平交易的权利,不得利用算法实施不合理的差别待遇等违法行为。
(三)人工智能伦理规范化的实践需求
在数字时代,人工智能在促进创新、推动社会发展的同时,也对自由、平等、安全、和谐等产生难以估量的冲击,亟需推动科技伦理与法律的有效对接。虽然法律仅是最低限度的伦理道德,且与伦理存在规范种属的差别,但是在数字社会结构和算法运作模式推动下,伦理规制与法律规制在实践中不断融合。这就要求人工智能伦理需在法律轨道内运行。
在实践中,人工智能伦理规范化可以强化对科技风险的事前防范。伦理规则通过嵌入平台经营者主体责任、安全保障义务等“桥梁”进入法律系统。例如,我国电子商务法等法律明确了安全保障义务、算法透明、算法公平、内部监督机制完善等规范要求,细化了主体责任履行的监督机制、整改机制和处罚机制。而人工智能的伦理规则即是为了应对数字社会的伦理风险,要求人工智能服务提供者积极开展自我规制和确保算法设计、运行的内在善性。
如此规定,是因为科技是社会经济发展的利器,也可能成为风险的源头,应前瞻性研判科技发展带来的规则冲突、社会风险和伦理挑战,完善相关法律法规、伦理审查规则及监管框架。科技伦理治理已经成为事关科技创新工作全局的重要工作,是促进创新与防范风险相统一的重要举措。由此可见,人工智能伦理规范化的重要目的之一就是为了应对新时代的社会风险和伦理挑战,提升社会创新的质量。依据这一思路,人工智能伦理规范化可以借助国家强制力,推动在技术开发时建构风险预防机制,从根源上减少伦理风险。
我国现有法律法规也明确要求引入科技伦理规则,主要体现在以下方面:一是,法律条文直接将“违反伦理道德”作为禁止性规定。例如,《民法典》第1009条规定,从事与人体基因、人体胚胎等有关的医学和科研活动,不得违反伦理道德。我国科技进步法第29条规定,国家禁止违反伦理道德的科学研究开发活动。二是,法律通过倡导性规定鼓励相关主体自主开展伦理治理。例如,《关于进一步压实网站平台信息内容管理主体责任的意见》强调,网络平台要以弘扬社会主义核心价值观为己任,培育积极健康、向上向善的网络文化,确保网上主旋律高昂、正能量充沛。
03物化趋势下人工智能伦理的双重面向:技术工具与数字规则
人工智能伦理内涵、场景复杂,而不同伦理规则因为发挥社会作用的机制存在差异,且伦理与法律分属于不同的规范类别,由此引发人工智能伦理规范化的困局。对此,我们需要基于人工智能的运行特征,梳理出伦理规范化的不同进路,以科学实现人工智能安全风险防范和价值对齐。
(一)人工智能伦理规范化的双层逻辑结构
智能算法由服务提供者等主体设计、控制,贯彻的也是服务提供者的意志。在此层面,算法应被定位为由服务提供者支配的客体,与一般技术具有共性。但是,人工智能作为特殊的技术类型,并在数字空间生成了特殊的新型权力,规训甚至控制人类,具备了规则属性。由此,在数字时代,人工智能既是规范对象,又是规范本身。受人工智能属性及其与法律交融的影响,人工智能伦理规范化遵循着不同的运作逻辑和目标。作为规范对象的人工智能伦理规范化的目的,是通过法律手段强化对人工智能安全风险的治理,而作为规范本身的人工智能伦理规范化的目的,是通过法律手段推动“AI+”社会向善,并与人类价值进行对齐。
针对人工智能的技术工具属性,人工智能伦理规范化主要指向的是科技活动,其背后彰显的是技术中立原则。在网络技术发展的初始阶段,美国发展出了避风港规则,极大地减少了网络技术发展的阻力与担忧。依据《民法典》第1195条和1197条的规定,技术中立原则一般与间接责任相对应,只要人工智能提供者不存在主观故意,即不应当承担法律责任。即便ChatGPT等生成式人工智能的通用式应用,具有强自主性、智能性和自适性,也不能完全否定技术中立原则。因为在数字空间,人工智能的类型多样,应用场景十分复杂,在很多网络互动中充当着信息媒介,在平台场景内,基于技术中立的避风港原则仍是主流。对此场景下人工智能的规制重点是技术的开发与应用过程。例如,《关于加强科技伦理治理的意见》开篇即明确,科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范。其本质上规制的还是“人”的行为,遵循的还是人活动的伦理,而未对技术本身作出要求。
随着人工智能对社会嵌入的深化,人工智能能对用户产生“权力威慑”,直接影响用户的实体权益,并在数字空间架构了不同主体交互的基本秩序。这种影响超越了技术性风险,而催生了规范层面的制度风险。此时,人工智能伦理治理的核心已经超越了“技术中立”,需要对算法模型本身所蕴含的“规则”进行伦理调整。为避免人工智能对人的不当规训,确保算法向善,在设置人工智能内蕴的伦理准则时,应提升标准,超越最低程度的道德要求。《关于落实网络餐饮平台责任切实维护外卖送餐员权益的指导意见》规定,“优化算法规则,不得将‘最严算法’作为考核要求,要通过‘算法取中’等方式,合理确定订单数量、在线率等考核要素,适当放宽配送时限”。该规定指向的即是算法的规范属性,将算法视为道德行动体和抽象系统的混合体,依此对算法内蕴的伦理道德提出了更高要求。从上述伦理要求标准看,人工智能在发挥规训作用时,不能将不契合人类伦理的智能算法施加到人类身上,否则“AI+”社会最终会走向受工具理性支配、人的主体性不断被弱化的数字社会。
(二)技术工具定位下伦理规范化的逻辑
《欧盟人工智能法》作为世界上第一部人工智能领域的专门立法,坚持以“风险治理”为核心,将人工智能风险划分为“不可接受类”“高风险类”和“通用类”,形成以原则性规范为主的内容架构。这背后仍是将人工智能定位为技术工具,并没有将之视为人类的“交互对象”。
“安全是发展的前提,发展是安全的保障,安全与发展要同步推进。”在数字空间,人工智能的受众缺乏自我安全保护能力,而且风险具有普发性且影响范围较大,甚至会影响到国家主权安全、数据安全、网络安全。对此,我国专门制定了网络安全法,要求网络运营者遵守法律法规,尊重社会公德,遵守商业道德,诚实信用,履行网络安全保护义务,承担社会责任。人工智能服务提供者作为网络运营者的一种类型,应落实风险预防、安全保障等相关责任。在这一过程中,虽然人工智能服务提供者并无侵权的故意,但是由其承担相应风险治理责任,契合效率原则和经济考量,也具有技术和成本优势。
在国际竞争日益激烈的时代背景下,不发展才是最大的不安全。我们需要在确保发展的前提下,推动人工智能伦理风险的治理。这本质上就是人工智能发展与社会安全的平衡问题。为推动人工智能技术的发展,人工智能的法律规制应建构以伦理为先导的社会治理体系,通过伦理的先行预设来避免法律的刚性与滞后性。伦理先导式的人工智能治理实际上就是首先设置具有弹性空间的软法治理体系,随着经验的积累与成熟,再作为立法资源推动相关立法。这个过程就是人工智能伦理规范化的演变进程。
人工智能伦理的软法属性,存在容错和自主选择的空间,可以推动人工智能发展创新,应成为人工智能治理的首选方式。对此,在科技工具定位下的人工智能伦理治理,应谨慎将伦理升阶为具有强制性的法律规定。此时,人工智能伦理规范化实际上是将底线性道德义务规范化,只要相关行为不越线即为合法行为,应以结果导向,而非以行为不法为导向。此时,人工智能伦理规范化的动力,是确保底线性道德义务对重大利益的保护被规范所承认,防止法律规范与底线性道德义务衔接不畅所导致的危害,具体来说,就是要确保因人工智能造成的对生命安全、身体健康和合法财产的侵害能受到法律救济。在此语境下,人工智能伦理规范化主要是通过义务性条款转变为具有强制效力的法定义务,并主要将相关义务配置给人工智能的研发者、运营者等主体。
(三)数字规则定位下伦理规范化的逻辑
在数字时代,人工智能对社会的影响已经由被动转向主动、由场景转向通用、由间接转向直接、由个别行为转向规模行为。这引发了社会关系的系统性变革,形成新型社会运作模式:模拟AI警察能够有效误导“证人”,使其提供虚假证词。例如,AI警察可能会询问“抢劫者是否驾驶汽车到达犯罪地点”,但事实上抢劫者是徒步作案。类似的误导性发问直接扭曲了证人的记忆重构过程,也为智慧审判敲响了警钟。如果无行为能力的自然人在濒死时无法表达自己的治疗意愿,家属和医院可以借助AI孪生体,利用病人自己此前的医疗数据、个人信息和社交媒体来推断他最有可能的治疗偏好,但这也无异于将生死抉择交给人工智能。
在“AI+”社会,因应人工智能的革命性影响,“算法权力”、“算法规训”、“代码即法律”等已经成为重要的学术论断。在数字空间,算法能够直接决定用户的交互状态、资源配置、损害救济等事项,具有鲜明的规则属性。而且,受算法属性的影响,算法可以瞬息、直接影响用户权益,比任何“硬法”都还要“硬”。此外,算法服务提供者与被支配者之间缺乏沟通机制,存在权力程序的缺失,进一步强化了算法权力的强度。
随着人工智能对社会的全面嵌入和独立型人工智能的发展,智能算法对人类的权力效应已经突破平台等场域的限制,影响到了物质世界。“数字人”逐渐成为人类的生存模式之一,“数字财产”正在成为数字时代的重要财产,而且“脑机接口”“具身人工智能”等也在不断推动数字世界与物质世界的互相嵌入。在这一过程中,人工智能发挥的作用不断强化,应用场景也在不断增加。在这一过程中,作为用户的人类逐渐由“主动者”转变为“被动者”,依赖、信赖人工智能的社会功能,接受人工智能的“支配”。这就产生了基于知识、信息控制而产生的新型权力形态,影响范围已经超越了决策阶段,转向对问题的控制,且超越了人们的辨识能力,很容易造成误信,产生对现实的控制效果。在社会生活中,一些人工智能已经出现欺骗、操纵人类的现象,例如在安全测评中撒谎,引诱人类作出错误决策,阿谀奉承强化人类的不当认知等,并可能产生操纵政治选举的社会风险。
为更好步入“AI+”社会,人类对人工智能的治理目标,已经从人工智能安全(AI safety)转变为价值对齐(AI alignment)。价值对齐作为新近提出的人工智能伦理要求,旨在确保人工智能内在的伦理原则、目标和价值观与人类的目标、伦理和价值观保持一致性。随着临近人工智能与人类关系变革的“奇点”,人类社会普遍认知到人工智能对社会颠覆性影响的临近,改变人工智能运作伦理的迫切性。联合国AI高级别咨询机构发布的《以人为本的人工智能治理(征求意见稿)》也在强调对人工智能的要求,应当超越“不伤害原则”,并建立更为广泛的人工智能开发者、控制者的问责机制。
在此背景下,人工智能伦理规范化已经不是法律对社会自治的干预,而是随着人工智能影响力的扩张和算法规训效能的凸显,一些新的法律权益逐渐产生。一些原本应由用户授权或意志参与的事项,受到了智能算法的强制支配,无法自由表达个人的意志,决定自我的权益与行为。这本质上就是社会活动决策权的重新配置,人工智能决策开始逐渐取代人类决策。随着数字社会结构和运作逻辑的变革,针对作为规范的人工智能伦理的规制重心应由“如何修复和恢复社会”转向“如何规训和塑造社会”。此时,人工智能伦理规范化,已经不是法律所规制的“底线性道德”,而是要求人工智能具备建设美好“AI+”社会的基本能力。
当然,人工智能伦理规范化不是全部伦理的规范化,而是要求提高人工智能开发与运行的伦理道德底线,建设“有道德”的人工智能。此时应当将伦理观念注入人工智能,推动形成仁慈、正义、非恶意的“AI+”社会生活场景。由此,为应对未来人工智能所带来的系统性、颠覆性、不可预知性的风险,应在一定程度上突破伦理自治的限制,通过法律强制力的引入,确保人工智能朝着人类价值伦理发展,切实落实人工智能的“价值对齐”。
将人工智能划分为“技术工具”与“数字规则”主要是基于理论分析的理想类型构建,在复杂的现实场景中,我们必须正视二者界限的相对性以及在具体应用中的混同与叠加。实际上,绝大多数高风险与通用型人工智能系统往往兼具双重属性。例如,自动驾驶系统既是辅助人类出行的技术工具,其内置的紧急避险算法又实质上构成了决定生命优先级的数字规则;内容推荐算法既是平台优化流量分发的商业工具,又是规训用户认知偏好与社会舆论的信息规则。
针对此类“工具”与“规则”属性重叠的复合型人工智能,首先应确立规则优位的价值排序原则。当人工智能的“工具效率”与“规则公平”发生冲突时,作为数字规则的伦理规范应优先于作为技术工具的伦理规范。这意味着,一旦人工智能系统表现出明显的社会动员能力或对个人权益的强制性支配力,即呈现规则属性时,即便其初衷仅为技术辅助工具,也必须中止技术中立的抗辩,转而接受更为严格的实体法约束。
其次,在制度供给上实现软法与硬法的协同互补。对于重叠属性的人工智能,应在底线问题上适用针对数字规则的硬法治理,通过设定法律禁区和强制义务确立不可逾越的红线;而在技术创新与优化层面,则保留针对“技术工具”的反身法治理空间,通过伦理审查、合规激励等软法机制引导技术向善。这种刚柔并济的策略,既能利用硬法遏制算法权力的滥用,又能通过软法保持技术工具的进化活力。
最后,应建立基于风险等级的动态响应机制。随着人工智能应用场景的变化,其工具与规则属性的权重会发生流变。法律应保持敏捷性,当一款通用人工智能从封闭的辅助工具演变为开放的社会基础设施时,治理手段也应确保治理强度始终与人工智能的社会影响力相匹配,从而在复杂场景下切实实现人工智能与人类价值的深度对齐。
04以私法为核心的人工智能伦理规范化
基于系统论法学理论,“环境”变化是法律系统自律变化的动力,社会环境通过与法律系统的沟通发挥作用,并借助沟通推动法律系统的递归式发展。在此背景下,人工智能伦理规范化不能被简单地定位为一个法律系统的建构问题,这会忽视既有法律规范内容对人工智能伦理的承接。实际上,人工智能伦理规范化是法律系统“既开放又封闭,开放以封闭为条件”这样一种在悖论和去悖论中不断递归性运作的自我再生产过程。人工智能伦理具有抽象性和概括性,私法的自治性、宣示性和开放性与人工智能伦理的软法特征相匹配。具有强制性的公法虽然能在人工智能伦理被严重违反时发挥兜底的制裁功能,但公法的谦抑性限制了它在一般情形下的适用范围,故人工智能伦理规范化的进程应主要由私法承接。我们应在保持人格权法、合同法等法律系统稳定的前提下推进人工智能伦理的规范化。
(一)私法人文精神对人工智能伦理规范化的指引
受人工智能工具逻辑和规范逻辑的双重影响,人工智能伦理规范化呈现出“制度伦理化”与“伦理制度化”同时并存的特征。一方面,“制度伦理化”要求现有法律制度为适应人工智能的伦理挑战进行现代化改造,例如传统合同法中的格式条款规则,在应对算法时需补充透明性、民主性等伦理内涵。另一方面,“伦理制度化”是将新兴的伦理共识(如“保护隐私安全”)上升为新型法律规则,近年我国立法中隐私权、个人信息权益的凸显即是其典型体现,是法律对技术发展的直接回应。
从现有法律体系看,人工智能伦理的规范化不仅涉及新型法律内容的出现,也包括法律开放性条款内涵的丰富。例如《民法典》人格权编中一般人格权制度可以作为人工智能伦理与法律相互嵌入的窗口。一般人格权内蕴人格平等、人格自由和人格尊严等伦理内涵,通过制度体系的开放性,避免遗漏新生并值得保护的人格利益,吸纳随着人工智能技术发展而产生的新型人格权益。例如,随着大脑与电脑、人与机器融合后的“超级人工智能”的出现,精神完整权益等已经具备法律保护的必要,在法无明定的情形下可以借助一般人格权实现伦理的法律保护。
上述人工智能伦理规范化的操作都可以在民法场景下完成。当代民法是人文主义民法,对人工智能伦理的设定具有重要的指导作用。这是因为人工智能伦理本质上是以人类与人工智能关系为中心的新型伦理要求,且应以“人”为核心,由此应主要在民法场域内实现人工智能伦理与法律的交融。民法体系已经为人类的生存设置了一系列的法律规范,可以承接人工智能伦理规范化的升阶,并回应人工智能伦理规范化的标准问题,以保障人类在“AI+”社会的基本权益。
人工智能伦理规范化的核心场域之争,本质上是治理范式之争。虽然当下全球人工智能治理呈现出强监管的公法趋势,但这主要针对的是国家安全、数据主权及重大社会风险的底线防御。若试图以公法为核心推动人工智能伦理的全面规范化,将面临治理失灵的风险。公法主要依赖行政指令与刑罚制裁,具有刚性、滞后性与谦抑性特征。面对尚未定型的技术伦理,公法不仅难以精准界定违法边界,更极易因“一刀切”的过度规制而扼杀技术创新。此外,公法关注的是公共秩序而非个体感受,难以回应人工智能对个体尊严、自主性等伦理价值的微观侵蚀。
相比之下,尽管私法救济常被诟病为事后、个案,但这恰恰是其应对不确定性风险的优势所在,也是其应成为伦理规范化核心的理据。其一,私法是“人”的法律,与人工智能伦理以人为本的精神内核高度同构。人工智能伦理旨在防御技术对人的异化,维护人的主体性。私法提供了最直接的权利话语体系,能将抽象的伦理诉求转化为具体的权益主张,实现价值对齐。其二,私法可以通过分散决策机制弥补公法监管资源的不足。面对无处不在的算法,私法赋予每个用户监督者的地位,通过海量的个案诉讼形成对算法权力的分布式监督网络,这是行政监管难以企及的治理广度。其三,私法的“倒逼效应”能有效克服其事后性的局限。虽然司法裁判是事后的,但巨额侵权赔偿与合同无效的法律风险,会倒逼企业在研发阶段主动合规,实现从事后救济向事前预防的传导。其四,私法的开放性条款可以充当伦理进入法律的柔性接口。它允许司法者在个案中根据技术发展动态调整伦理标准,从而避免公法一旦制定便难以适应技术迭代的僵化弊端。因此,以私法为核心,辅以公法兜底,才是实现人工智能伦理规范化最务实且高效的路径。
从私法角度看,人工智能伦理的内容可以划分为四种类型:
一是针对人工智能服务提供者行为的伦理要求,这本质上属于技术研发伦理,主要涉及民法领域自治规则、法律责任的内容。例如,服务提供者在研发环节故意使用带有严重偏见的数据集训练招聘算法,导致算法模型对特定群体产生系统性歧视。这种违背研发伦理的行为,在民法上可构成对求职者平等就业权的侵害,应承担相应侵权责任。
二是针对工具性人工智能的伦理要求,这属于社会应用层面的伦理规则。如可控可信和保护隐私安全,主要涉及民法领域权益保护。例如,一款AI“数字人”应用在提供情感陪伴服务时,未明确告知用户且未取得同意,即抓取、学习用户的私密对话,并将其用于后续模型的优化。此行为违背了应用伦理,直接侵害了用户的隐私权。
三是针对规则性人工智能的伦理要求,其属于社会规范层面的伦理规则。此时主要涉及民法领域人格权法、合同法等规范内容。例如,外卖平台的算法为追求极致效率而不断压缩配送时间,此算法规则构成了对骑手生命权、身体权、健康权的系统性压迫,在合同法上亦可因其不合理地免除或减轻平台责任、加重骑手责任而被认定为无效的格式条款。
四是程序性伦理规则,这是指人工智能风险沟通的程序和选择机制,主要涉及民法场景下不同主体之间协商的组织架构和制度保障。例如,当平台使用算法对用户内容进行自动删除或对账号进行封禁时,未提供透明的申诉渠道或“人机协商”的可能。这种程序性伦理的缺失,构成了对用户程序性权益的减损,应通过完善平台治理的组织法规则予以保障。
(二)人工智能伦理进入程序法的路径
在对工具定位下的人工智能伦理进行法律规制时,应避免以“控制—命令”为核心的传统规制路径,转向尊重自治与互动的反身法规制模式,要求人工智能服务提供者在研发时自主遵循伦理规则。反身法本质上属于受规制的自我治理,强调规制对象在外在规制作用下,由规制客体转变为规制主体,开展受限制的自我规制。这就要求人工智能服务提供者,一方面应当依据行业技术优势,根据人工智能的行业特点,制定自我规制的方案;另一方面需要在民法领域的组织法规则下开展自我规制,避免公权力对人工智能具体伦理内容的实质性干预,“理性地制约专业理性”。
人工智能伦理在程序法层面嵌入法律系统已有相关立法尝试。根据《科技伦理审查办法(试行)》第2条的规定,涉及以人为研究参与者的科技活动,以及利用人类生物样本、个人信息数据等的科技活动,须通过科技伦理审查。《科技伦理审查办法(试行)》第25条规定,对可能产生较大伦理风险挑战的新兴科技活动实施清单管理,“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发”、“面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发”和“对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发”均在清单之列,须适用专家复核程序。依据《科技伦理审查办法(试行)》第4条设立的科技伦理(审查)委员会在初步审查后,应当报请上级主管部门进行专家复核,专家组将对初步审查意见的合规性和合理性进行审核,并反馈复核意见,之后科技伦理(审查)委员会再根据复核意见作出伦理审查决定。且《科技伦理审查办法(试行)》第33条规定,初始审查决定作出后,科技伦理(审查)委员会还应随时监管试验动态,实行跟踪审查。
人工智能伦理由反身法模式进行规范化,是社会系统分化的必然结果。社会系统分化,不断强化社会运作上的复杂性,导致法律系统在认知上存在缺陷。在社会系统论“二阶观察”下,法律具备“规范就是规范”的封闭性,但同时封闭性以其对社会环境的开放性为条件。因为系统无法通过自我运作实现与环境的连接,这就需要通过结构耦合来实现不同系统之间的互动。在这一互动过程中,法律系统应依托作为“回应型法”的反身法模式,及时回应社会系统中出现的问题。此外,反身法的规制模式实际上也是对人工智能程序性伦理规则的贯彻,可以避免直接以法律的形式明确人工智能伦理的具体内容,而是通过间接和抽象的方式在组织机构、能力和程序等层面完善自我治理机制,为人工智能服务提供者的伦理自治提供组织前提和程序前提。
反身法作为一种间接规制模式,强调通过制度设计来确保具体治理规则形成的民主性,完善不同主体之间的商谈沟通机制。在人工智能伦理规范化的过程中,法律系统可以通过组织、程序和职权的规范来帮助其他社会系统实现民主的自我组织和自我规制。
首先,完善组织架构,建构有助于人工智能伦理形成与优化的组织规范。人工智能伦理治理的组织架构可以划分为行业自治组织和企业内部体系。2023年颁布的《科技伦理审查办法(试行)》在第二章对伦理治理主体进行了系统规定,要求在高等学校、科研机构、医疗卫生机构、企业等责任主体内部建立科技伦理(审查)委员会,并探索建立专业、区域性的伦理审查中心。基于此,为实现人工智能的伦理治理,人工智能行业应不断完善行业自治组织的建设,明确内部运作流程,并根据人工智能的发展进行敏捷治理,适时更新人工智能的伦理规则。同时,人工智能服务提供者可以通过内部组织架构,将法律对伦理的合规要求内化为企业的内在机制。在具体建构时,法律制度可以细化人工智能伦理委员会的成员身份构成、运行规则、权责机制等,开展常态化、场景化的伦理治理,以确保开发出负责任、可信的人工智能。此外,为实现政府、行业组织、企业组织等组织体之间的信息互通、科学分工,应完善组织间的协同治理机制,完善伦理治理规则备案、风险报告、举报投诉、配合伦理审查等协同机制。
其次,完善人工智能伦理治理的程序规则。只有在子系统内建构民主化的商谈结构,才能真正推动反思在子系统内予以落实,并确保反身法程序架构产生的实质结果获得社会认同。而不同主体间理性商谈则需要满足“充分开放、人人平等、真诚表达、自由沟通”的外在条件,以保障商谈程序的合理性和公正性,推动商谈结果具有可接受性。为满足伦理协商的外在条件,人工智能服务提供者作为自我治理的责任主体,应尽力实现人工智能的透明性和可解释性,奠定人工智能具体伦理内容的商谈前提。平等协商需要从两个方面进行建构,一是政府等公权力机构应当避免以命令形式开展治理,要与人工智能服务提供者开展平等协商;二是人工智能服务提供者作为“数字守门人”和“数字空间私权力的服务提供者”,要与人工智能使用者进行平等协商。针对一些高风险、通用性的人工智能,可以借鉴平台规则等方式进行公示。人工智能服务提供者应尝试将算法内蕴的伦理用文字表述,并进行公示征求意见,并根据意见对智能算法进行优化。
此外,科学设定人工智能场景下的双层职权体系。在人工智能领域,因为算法嵌入社会的各个方面,且通用式人工智能已经成为发展方向。这就衍生出具有全社会影响力的“私权力”,形成对用户的技术支配关系。这就需要解决算法决策权在市民社会和政治国家之间如何分配的问题。在此背景下,既要关注“公权力—私权力”之间的职权设定,还要重视“私权力—私权利”之间的职权关系。在第一层职权设定中,公权力一般仅建构相关系统的运作程序,激励与督促相关主体开展自我治理。但是,公权力机关作为私权利的维护者与保护者,也应关注“私权力—私权利”关系,设置人工智能服务提供者的行为边界。这就涉及第二层的职权设定。虽然公共机构将数字空间治理权力分享给私主体,要求其进行自我规制,但为保护私权利主体的权益,人工智能服务提供者在借助算法进行数字空间资源配置、权利设定时,应遵循“法律保留”的相关要求,避免私权力不当“窃取”公权力机关的职权,也不能不当限制用户的基本权利,例如数字财产制度设置和隐私计算等。这就要求公权力机关尽快填补“治理赤字”,推动民法典的适数化改造,以避免私权力的不当“补位”。
(三)人工智能伦理进入实体法的路径
在实践中,人工智能不当发挥“规范效能”并造成严重负面影响的情形经常出现。“深度伪造”“人工智能生成内容幻觉”“大模型歧视”等现象,已经严重影响到数字社会的生态,直接损害了相关主体的权益。这背后隐含的是算法权力在行为规制、数字空间资源配置等层面的滥用,对用户民事权利的忽视与损害超越了“工具化”的范畴。由此,人工智能伦理在一定程度上转化为权力运行的伦理要求,不仅在内容上出现了扩张,在规制强度上也需要更高的要求。这就对人工智能伦理的法律应对提出了新的要求,并需要在实体法层面予以强制性落实。人工智能伦理在法律层面的实体化,主要体现为以下方面:
第一,人工智能伦理生成新型人格权益。人格权法的价值即人的主体价值。而人工智能伦理规范化即解决“人工智能如何对待人”的问题,核心在“AI+”社会实现人的完整人格利益。对此,需要关注人工智能伦理与人格权益的交融关系,明确人工智能在人格层面的法律属性。在实践中,因应人工智能发展,一些新型权利类型开始出现,最为典型的是数字隐私权、个人信息权益等。在“AI+”社会,人工智能侵入了人类自由、隐私的场域,形成了新型支配关系。人成为“玻璃球中的人”“数字人”,成为被技术支配的对象。在此背景下,人工智能伦理生成的新型权利多数情形下是“对抗性”“防御性”权利,主要是为了实现人格尊严和个人自主发展,例如离线权、数据到期权、被遗忘权、可携带权等新型权利,这些新型权利的出现是为了应对数字权力的扩张,目的在于强化人类的主体性和人格完整性。人工智能伦理的软法约束是无法实现这一目的,国家必须以法律的形式提升人类摆脱人工智能等技术权力的能力。此外,这些新型权利会随着人工智能对人类社会嵌入的进一步深化而不断出现,只要人类在公平、自由、主体性等领域的某方面受到影响,就应赋予人类相应权利予以对抗。例如,随着脑机接口技术的发展,精神隐私与自决权等新型权利应予以重视。
第二,人工智能伦理生成新型法律义务。人工智能具备高度的社会嵌入性、技术的非价值中立性以及权力集中性等特征,具备道德物化的天然属性。在此背景下,人工智能服务提供者不同于一般的技术研发者,应被视为“AI+”社会治理的重要参与者,对人工智能的研发、运作应负有积极的作为义务,例如定期审核、评估、验证算法机制机理,建设违法信息词库,优化调整人工智能等,并确保人的主体地位。人工智能服务提供者的作为义务,在《关于切实加强网络暴力治理的通知》等规范中又被称为“主体责任”。所谓主体责任,即要求社会主体要承担与其角色定位相适宜的主体义务。这背后反映的是人工智能服务提供者身份的变革,日渐转变为数字社会的治理主体,并由此衍生出一系列与身份相对应的新型义务。因为人工智能服务提供者属于私法主体,其新型法律义务作为私法义务,可以实现与侵权法规范的对接,也同时涉及行政处罚的相关规定。但归根到底,都是为了督促相关主体对民事权益的充分保护。
第三,将一些违反伦理的行为上升为法律禁止性行为。人工智能违反伦理的行为仅在人工智能具备规范效能的场景下才应予以法律禁止,其目的不是为了维护社会安全,而是建设更契合人类生存的“AI+”社会。此时,人工智能与用户之间存在权力关系,可以直接决定用户权益,而用户缺乏选择权限,难以进行自我救济。从现有立法看主要存在以下类型:一是,违反公平的行为类型。在数字空间,算法歧视已经成为法律规制的重要内容。例如《生成式人工智能服务管理暂行办法》等规范要求避免通过技术手段对相关主体进行歧视或不合理限制。二是,严重贯彻工具伦理的行为类型。工具理性的产生主要是因为科技发展的数学化倾向和理性观念自身的内在倾向,目的在于追求手段与目的之间关系的最具效率的路径。因为人工智能规训效能的存在,已经严重影响相关主体的权益,动摇人的主体性,成为法律规制的重点。例如《关于落实网络餐饮平台责任切实维护外卖送餐员权益的指导意见》等规范对避免最严算法、设置诱导用户沉迷、过度消费的算法模型进行了规定。三是,严重违反人类主体性的行为。人工智能的类人性在一定程度上会影响人类的主体性,甚至会影响、替代人类进行决策。这会引发人类的主体性危机,危害人的自然发展。例如《欧盟人工智能法》第5条规定了对人潜意识的影响、特定情形下的社会评价、记录人的情绪、利用人的弱点等人工智能禁用的领域。
需要注意的是,即便在人工智能场景中科技伦理重要性在不断增加,也不宜将之直接定位为法律原则。从功能上看,法律原则具备指导、评价和裁判三大功能。而伦理作为与法律相对应的规制体系,内涵过于庞杂,无法像公平原则、诚信原则等发挥出相应法律功能,同时也会与《民法典》所明确的平等原则、公平原则、诚信原则等在内涵上产生重复。此外,如果一般性地将伦理视为法律原则,容易造成法律与伦理的混同,违反了两者分化的发展趋势,导致法律的泛道德化,必将损害自由。
(四)人工智能伦理可以通过开放式规范进入法律系统
民法典贯彻人文主义,也具有开放性,能够对其他法律渊源进行开放和包容。在此基础上,民法系统可以借助法释义规则,充分发挥认知上的开放性来回应人工智能伦理问题,并实现人工智能伦理与法律行为、财产归属、责任配置的直接连接,间接推动人工智能伦理发挥法律的规范功能。
在合同法领域,人工智能涉及合同法的各个层面,在技术开发合同中可以是合同的标的,在技术服务合同中可以是履行手段,在智能合约中又成为合同本身。因为人工智能在合同场域角色定位的多样性,其伦理规范需要根据具体情形选择不同规范发挥法律效能。一是,人工智能伦理借助公序良俗规范对合同进行“内容审查”。此种入法路径主要涉及人工智能作为合同标的、智能合约的情景,旨在通过否定相关行为法律效力的方式,避免违反伦理的人工智能在社会层间的流通。此时,人工智能伦理可以借助《民法典》第153条违背公序良俗的民事法律行为无效之规定,进入法律系统影响相关行为的效力。二是,人工智能伦理借助诚实信用原则等对合同进行“形式审查”。在实践中,有些网络用户借助人工智能作为“外挂”,违背人工智能伦理,开展“超频的定向交易”,获取“不当的游戏体验”等,会损害网络生态,侵害其他用户权益。对此,人工智能伦理可以借助具备审查合同行使行为功能的诚信原则,进入法律系统并影响相关法律行为的效力。三是,人工智能伦理在格式条款语境下借助公平原则影响相关法律行为的效力。公平公正原则是重要的人工智能伦理,为避免冲击意思自治,尊重市场精神,应将其发挥效力的场景限缩在《民法典》第149条格式条款场景,可以作为判断平台规则效力的依据。
在财产法领域,人工智能伦理可以成为数字财产配置的重要参考。人工智能在社会运作过程中会生成诸多数据,成为数字时代重要的生产资料,并形成了新型财产形式。但是,数据财产如何归属、收益如何分配在现有立法中并无明确的法律规定。在实践中,数据是所有在数字化平台上的用户生产出来的,且被少数数字资本家事实占有。人工智能服务提供者倾向于建立数据鸿沟,独享数据的社会红利和收益。这违背了人工智能促进公平公正的伦理原则,阻滞全社会公平共享人工智能带来的益处,且会不断强化用户的工具性。对此,我们应严格规范人工智能服务提供者的数据控制权,重视数据的公平利用,推动数据收益的社会共享。此时,人工智能伦理可以借助《民法典》第6条公平原则进入法律体系,在缺乏法律规则的前提下,发挥法律指引、裁判功能,并借助分配正义、交换正义等公平原则之内涵,评价数据财产机制能否反映不同主体的劳动贡献,判断数据资源采集、数据加工、数据资源交易机制的可行性。
在侵权法领域,人工智能伦理可以借助一般侵权条款进入法律体系。在德国和我国台湾地区,“故意以违反公序良俗的方式加害他人”成为重要的侵权类型之一,扩大了法律保护的对象。虽然我国未明确公序良俗作为人工智能伦理进入侵权责任法的通道,但是可以借助《民法典》第1165条一般侵权条款作为侵权责任的认定依据。在对一般侵权条款进行解释时,为避免一般条款的抽象和保护范围的扩大化,有必要将故意背俗侵权纳入一般条款的解释架构。在现有阶段因为已有人工智能伦理规则上升为保护性法律规范,例如《个人信息保护法》第24条对算法价格歧视等行为的禁止。在此背景下,人工智能伦理进入侵权责任领域,存在违反强制性规定侵权和故意背俗侵权两种解释通道。在侵权法领域,保护人工智能伦理的违反强制性规定,需要满足“设置有具体的行为义务”“保护私益之目的”的适格条件,才可成为侵权责任认定的依据。
05迈向“人机共生”时代的人工智能伦理规范
在“AI+”社会,人工智能伦理规范化已是客观的社会现象。其根源在于人工智能正经历道德物化与规则物化的双重趋势,使其超越了纯粹的技术工具范畴,异化为形塑社会秩序的数字规则和影响人类决策的交互对象。这种转变迫使法律规制的目标作出迭代:必须从传统的“安全风险防控”转向“人类价值对齐”,从“损害填补”转向“人机共生秩序建构”。为实现这一目标,仅依赖行政管制的思路已显不足,必须转向以私法人文精神为内核的治理路径。私法以其自治性、宣示性和开放性,为承接伦理规范化提供了核心场域。
人工智能伦理进入私法系统,循着其工具与规则的双重面向而展开。其一,针对AI的技术工具面向,伦理规范化宜借助反身法模式,通过建构科技伦理(审查)委员会等程序性架构,实现受规制的自我治理。其二,针对AI的数字规则面向,伦理规范化必须深入实体法,通过增设新型权利、科予新型义务以及设定禁止性规定,实现对算法权力的实质性约束。在此过程中,民法典的人格权法、合同法与侵权法等制度中的开放性条款,将发挥关键的筛选与对接功能,确保法律系统在保持自身封闭性的同时,能持续回应人工智能伦理的规范化这一时代命题。
*本文章仅限学习交流使用,版权归原作者所有。
⚖️
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.