![]()
作者:解志勇(中国政法大学比较法学院教授,法学博士);吴梦玉(中国政法大学比较法学院博士研究生)
出处:《比较法研究》2026年第1期
目次
一、引言
二、人工智能基础模型提供者的法律定位
三、基础模型提供者系统安全保护义务的提出
四、系统安全保护义务的设定逻辑
五、系统安全保护义务的体系化建构
六、结语
⚖️
摘要:人工智能基础模型提供行为连接着基础技术系统与下游应用系统,面临着潜在的规模性、传导性、脆弱性、不透明性和非场景性特征的“系统性安全风险”。对此类风险的有效防范,已超出纯粹技术系统的能力范畴,必须依托法律系统的加持,通过义务和责任设计,确保人工智能发展的安全、可靠、可控。鉴于不同提供者的自身保障能力存在着局限性和差异性,其所承担“系统安全保护义务”的内容亦有所不同。从技术角度看,应在鼓励发展的导向下,设定合理的风险容忍度;在技术可行的前提下,设定可靠的义务适配度。从内容层面上看,应以共同善的权利义务观为指导,建构层次分明的义务体系:一是以技术义务、伦理义务和公共责任为内容的“基础性义务”;二是侧重于系统间交互关系的信息共享、行为协助等“互动性义务”;三是提供者对下游应用的控制能力足够强时,可能要承担的监管审核、风险管理等“管理性义务”。
关键词:人工智能;基础模型;网络安全;数据安全;大语言模型
⚖️
01引言
数字文明时代,以人工智能为代表的新质生产力正驱动人类社会加速转型。“人工智能+”已成为赋能千行百业迈向数字时代的关键动力。从技术角度来看,基础模型(foundation model)是人工智能应用系统的上游技术支撑,凭借多模态数据处理能力、模块化架构设计以及强大的泛化能力,已从解决单一任务的技术工具,演进为适用于多种场景的元技术。一方面,基础模型作为通用技术,已成为数字产业发展的核心引擎与衡量国家数字竞争力的关键标尺。党的二十届四中全会强调“加快高水平科技自立自强,引领发展新质生产力”。这要求必须高度重视基础模型的发展。另一方面,基础模型固有的偏差复制和风险传导特性,亦使其成为人工智能生态中系统性风险的潜在源头。这意味着,发展必须是安全内嵌式的发展,需通过法律规范实现风险的可控可治。《国务院关于深入实施“人工智能+”行动的意见》也强调,要统筹推进“模型算法、数据资源、基础设施、应用系统等安全能力建设”。基础模型在发展与规制方面的特殊性,决定了其规范框架必须独立于下游应用系统。因此,法律应对“基础模型提供者”与“人工智能服务提供者”作出明确区分和界定,并据此设定差异化的义务与责任规范。
但目前,现有立法和学术研究对基础模型的关注相对不足。在立法层面,我国关于人工智能的一般性立法未单独规范基础模型提供者。如《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”)的规范对象主要为面向用户的生成式人工智能服务。虽然《暂行办法》第7条提及基础模型,但其义务主体仍为服务提供者。此外,《互联网信息服务算法推荐管理规定》的规范对象是算法推荐服务提供者,并未涵盖模型提供者。《互联网信息服务深度合成管理规定》虽区分了服务提供者和技术支持者,但其定义的“技术支持者”与“基础模型提供者”的概念并不完全等同,且该规定中往往将技术支持者与服务提供者并列,进行统一的义务设定。在学术研究层面,涉及基础模型的研究主要呈现出三种路径:一是从主体视角探讨人工智能价值链治理模式,涉及基础模型提供者的角色定位;二是基于分层治理的理念,提出“基础模型—专业模型—服务应用”的分层治理思路;三是研究高风险人工智能系统的规制路径,将基础模型纳入高风险人工智能系统中。由此可见,现有研究多侧重于宏观架构,缺乏对基础模型提供者具体义务的针对性探讨。少数研究虽已注意到基础模型所带来的技术变革,并指出其提供者应承担抽象性义务的启发性观点,但缺乏系统性的论证分析,也未能形成体系化的义务内容。
鉴于此,有必要聚焦于基础模型提供者这一主体,明确其概念内涵与法律定位,并基于其在人工智能价值链中的特殊地位,分析其面临的系统安全风险。在此基础上,结合基础模型提供者的控制能力,将其承担的法律义务界定为“系统安全保护义务”。进而,厘清该义务设定的基本前提、规范重点与义务边界,最终进行义务的体系化建构。
02人工智能基础模型提供者的法律定位
设定人工智能基础模型提供者的法律义务,必须首先界定基础模型、基础模型提供者的概念,分析基础模型提供者区别于应用系统提供者的特殊属性。
(一)基础模型的法律界定
在对新型技术事物进行法律界定时,需先关注本体维度,在明确关键技术要素和功能的基础上,结合其法律影响进行定义。
1.本体维度:迁移学习与通用性
从本体维度来看,基础模型是指通常依托自监督预训练机制构建,包含超大规模参数且具备通用功能的模型。其与基座模型(base model)这一概念经常交叠使用,但二者侧重不同:前者强调模型类别,通常指一类模型的技术范式,而后者主要用于描述模型在开发流程中的阶段,特指完成无监督预训练、尚未经过对齐与微调的原始模型。在实际部署中,基础模型通常在参数与算力上可达到“大模型”量级,且具备通用功能,因此在部分研究中也将其表述为大模型(large model)或通用目的人工智能模型(general-purpose model)。但从严格角度来讲,三者的定义边界并不相同。
从技术发展的谱系观察,早期的模型主要聚焦于特定任务学习,高度依赖人工标注和特征提取。随后出现的迁移学习打破了这一局面:在保持模型主体架构不变的情况下,可复用模型从其他领域和任务中学到的知识来解决目标任务。加之自监督预训练技术的发展,使得模型能够直接从海量无标注的原始数据中自动学习内在结构和表示。这不仅极大降低了预训练的数据门槛,也显著提升了模型的训练效率和可扩展性。在此基础上,进一步引入针对特定下游任务的微调(fine-tuning),可有效提升模型在特定任务中的性能表现,使其输出更贴合应用需求。这种“预训练+微调”的模式,使基础模型得以突破单一任务的限制,具备了跨领域的适应能力。
从基础模型的类型上来看,其早期聚焦于自然语言,如今已逐渐从文本、语音、视觉等单一模态向多模态融合发展。在具备分类、生成等能力的基础上,进一步展现出预测与涌现能力。未来,随着空间智能的发展,此类模型还会包括能够理解和模拟复杂环境的世界模型。故而,基础模型不应以某一具体模态来界定,而应从其“基础性”的内涵出发予以理解,即通过规模化预训练形成的通用任务适应能力。当然,这种“基础性”往往离不开大规模参数的支撑,这在部分法规中也有所体现。例如,欧盟《人工智能法》以1025 FLOPS的算力阈值区分系统型与非系统型基础模型。参数规模作为关键技术指标,具有两方面意涵:其一,其根本价值在于支撑模型形成通用认知能力及强大的知识迁移潜力,且具体的参数或算力阈值会随硬件和算法进步而动态变化;其二,不同类型的基础模型对参数需求的内容也有所不同,例如多模态模型往往更需要动态、交互式的参数体系。
2.法律维度:公共性风险
仅从本体维度界定基础模型的法律概念过于狭隘。法律肩负着防范社会风险、完成特定任务的使命,且监管资源有限。因此,法律定义需内嵌价值理念,通过概念本身来划定调整对象、调控社会关系。当前国际实践对基础模型的法律定义普遍采取“本体维度”与“风险维度”相结合的模式。例如,美国拜登政府时期的行政命令中将“基础模型”定义为,通过自我监督在广泛数据上训练、包含至少数百亿参数、具有广泛适用性,且可能对国家安全、国家经济安全、国家公共卫生或其组合构成严重风险的模型。这一定义前半部分属于对基础模型本体的界定,后半部分则直接描述了其潜在的社会风险。欧盟《人工智能法》将基础模型定义为“能够胜任各种不同任务,并可集成到各种下游系统或应用”的模型。这是一种纯本体特征的描述,但法案中同时说明,当基础模型被集成到高风险系统或自身被认定为具有系统性风险时,需遵守额外义务。可见,欧盟虽未直接描述风险,但通过“风险归属”模式来整合风险考量,并配套了系统性风险的评估程序。
我国界定基础模型的法律概念,也宜采取“本体+风险”的模式,并对风险作出直接描述。这主要是基于两方面的考量:其一,欧盟的风险归属模式是为适应其原有立法草案规定的风险分级布局,这种模式可能导致义务区分不合理,间接导致基础模型提供者为下游应用风险担责;其二,系统性风险的评估方式整体较为模糊,参数化标准难以有效识别那些规模有限但影响广泛的模型。因此,我国有必要通过定性描述与列举限定相结合的方式,明确核心风险的类别。在对风险的描述上,欧盟侧重于个人基本权利风险,体现了其个人权利本位的立法传统;而我国则应聚焦于国家安全、社会公共安全等公共性风险,这既符合我国以社会为本位的治理逻辑,也契合当前引领发展新质生产力的内在需求。具体而言,基础模型作为具有广泛赋能效应和基础设施属性的底层技术,其技术特性与产业生态决定了其具备显著的公共属性,因而风险的描述应突出公共维度。同时,在安全内嵌式的发展需求下,危及政治安全、社会稳定与发展大局的公共性风险应成为规制重点,其他方面则应着眼于促进创新与保障产业健康发展。因此,法律风险的描述应直接聚焦于社会公共风险。
综合本体维度和法律维度,可将基础模型定义为“依托自监督预训练机制构建,参数规模超大,其开发与应用活动可能对国家安全、社会公共安全等重大公共利益构成系统性风险的通用人工智能模型”。在此,法律概念虽采取了定性列举的模式,但在具体判断风险的严重程度时可引入辅助性的评估要素,如模型能力、潜在应用广度等,并且根据技术发展进行动态更新。
(二)基础模型提供者的概念廓清
基础模型提供者是开发基础模型,或委托开发基础模型,并以自己的名义或商标将其投放市场或提供服务的组织。该类主体可分为四种类型,且在某些商业模式下可能出现身份复合的现象。
1.提供行为
“提供行为”是基础模型提供者这一概念的核心,从规范要素出发,其是“开发+投放/提供”这两种要素的结合,具有三重规范特征。其一,提供行为的本质是以市场供给为目的的技术输出活动,包括无偿供给,但纯私人或内部使用不包括在内。在供给形式方面不作限制,只要允许第三方访问或调用、复用模型能力,就属于提供行为的范畴。其二,行为主体须以自身名义或商标进行服务标识。在数字化产业去中心化的趋势下,基础模型的形成过程往往涉及多方主体,包括模型思想提供者、模型设计者、模型制造者以及模型代工者等。但为明确义务与责任归属,必须在去中心化的价值链条中找到中心化的控制主体。在此过程中,品牌归属是一项关键的判断标准。因此,服务提供行为不仅是一种技术交付,更代表着一种品牌承诺。其三,提供行为在时间维度上呈现出“双层结构”。一方面,投放市场是一次性节点,即模型特定版本首次被提供的时间点,投放行为的合规与否也往往锁定这一时间点进行判断;另一方面,虽然此后同一版本模型的流通不再重新触发新的投放行为,但提供行为具有连续性,会延伸为一个持续的义务链条,成为提供者法律义务的起点。
2.主体类型
基于欧洲政策分析中心(CEPS)对人工智能价值链的七类划分标准,并结合提供行为的规范特征,可将基础模型提供者细分为四类主体:其一,原创研发机构,其主导基础模型的架构设计、预训练及工程实现,拥有模型的知识产权,通常通过闭源API或商业平台完成首次市场投放。其二,开源主导者和商业托管平台,前者以自主品牌发布开源基础模型;后者通过自有品牌提供基础模型API或云服务,通过控制服务接口与输出构建“模型即服务”(MaaS)生态系统。其三,模型微调服务商,其基于原创模型进行通用能力优化,并将优化后的模型作为独立产品投放市场。其四,模型集成商,其整合多个基础模型构建新系统,并以集成系统名义投放市场。值得注意的是,后两类主体的提供对象必须是通用模型而非领域模型。从事领域微调的应用集成商,不属于这一范畴。
3.身份复合
在复杂的人工智能产业实践中,基础模型提供者的身份并非总是单一的,也可能出现多重身份交织的复合特征。这种身份复合的情形可以概括为两种类型:其一,基础模型提供者与应用系统提供者的身份重合。比如,在“模型即服务”模式下,模型开发者直接面向终端用户提供生成式人工智能服务,从而同时兼具“模型提供者”与“应用服务提供者”的双重身份。其二,基础模型提供者与使用者的身份重合。在某些情况中,基础模型的开发者不仅是技术的提供者,还会使用自己的人工智能产品或服务。比如特斯拉作为自动驾驶系统的开发者,同时还使用研发的模型来实现汽车的自动驾驶功能,从而融合了“提供者”与“使用者”的双重身份。
(三)基础模型提供者的基本特征
基础模型提供者的基本特征也是其与人工智能应用系统提供者的区别所在。
1.技术属性
相较于人工智能应用系统提供者,基础模型提供者在技术属性上具有复杂性。这种复杂性既源于其技术发展导向,亦因其处于人工智能生态中的关键地位。一方面,基础模型是国家核心技术竞争力的重要体现,亦可能演变为数字社会的关键基础设施。因此,其提供者的技术开发应立足于长远发展的视角,所承担的技术使命也不同于人工智能应用系统提供者,相应的责任与义务体系亦应有所区分。另一方面,基础模型在监管角色方面具有特殊性。由于基础模型的通用属性,通过规范少数基础模型提供者,即可高效实现对下游应用底层技术架构的间接治理。这种治理模式使得在对下游应用的规制中,只需重点关注特定应用领域的专项风险,从而显著降低全行业的合规成本。
2.少数属性
基础模型的涌现能力和推理能力均建立在超大规模参数的基础上,唯有当参数规模突破特定临界阈值时,模型方能通过思维链提示的训练,实现真正的泛化能力。这种技术范式对数据和算力均提出了较高要求。在数据方面,不仅需要海量数据,更需要高质量数据。而高质量数据往往被少数头部企业所掌握,其凭借先发优势,通过“数据采集—模型性能改进—用户参与反馈”的循环机制不断提炼高质量数据,形成难以复制的专有数据集。后发参与者因缺乏用户生态积累,在数据规模与质量方面均受到发展限制。在算力方面,大模型预训练亦需要巨额投入。这种高资源门槛使得基础模型提供者呈现出“少数属性”。相比之下,应用系统提供者可基于基础模型进行场景化微调,即使自研模型,单个场景的数据和算力需求也相对可控,因此数量较多。
3.利益属性
相较于以市场导向为主的应用系统提供者,基础模型提供者的利益属性具有复杂性,需要综合考量公共价值、技术价值等因素。单就商业利益而言,基础模型提供者必须在“封闭盈利”与“开放赋能”间艰难抉择。一方面,基础模型的研发需巨额算力与数据投入,封闭盈利有助于其快速收回成本。但另一方面,基础模型的技术价值又依赖于开源或开放接口以扩大生态,在下游应用中创造衍生价值。这种内在张力,使得基础模型提供者的利益属性呈现出复杂性。而在公共性层面,鉴于基础模型具有“潜在数字社会基础设施”的公共属性,其设计、开发与制造行为均不得仅以商业价值为单一导向,还需要立足公共利益,纳入更多的社会规范和公共价值考量,将公共责任内嵌于技术实践之中。
03基础模型提供者系统安全保护义务的提出
确定一项法律义务,首先需要考量其是否“应当”。这种“应当”根植于社会共识的价值判断,通常是作为权威的立法者基于理性权衡,将日常生活中人们普遍认可的行为准则制度化、法律化的结果。对于基础模型提供者而言,其义务的“应当”,源于其在价值链中的特殊地位及面临的特殊风险。这类风险具有规模性、传导性、脆弱性和不透明性等特征,可称为“系统性安全风险”。虽然基础模型提供者对该风险具备一定的控制能力,但鉴于其作为私主体保障能力的局限性,故而将其所承担的义务定位为“安全保护义务”。
(一)基础模型提供者的特殊地位
明确基础模型提供者在人工智能价值链中的具体地位是设定其法律义务的先导步骤。
1.沿价值链判断基础模型提供者的地位
当前,学界对人工智能价值链的主体划分存在多种模式:既有以欧盟《人工智能法》为参照的“通用模型提供者+应用系统提供者+应用系统部署者+受影响者”的四元结构,也有串联核心义务主体的“基础模型提供者+专业模型研发者+生成式内容服务提供者”结构,还包括“技术开发者+技术提供者+技术应用者+受技术影响者”链条。虽然价值链条的呈现形式有所不同,但主体过程均遵循人工智能技术从底层研发到终端应用的规律。无论采取何种价值链模式,在以基础模型为核心的人工智能开发模式下,基础模型的设计和开发均是人工智能价值链的技术原点。作为一种相对封闭的技术系统,基础模型通过接口开放和场景化部署进入实际应用领域,完成了从技术系统向社会系统的转化。在此过程中,其技术提供行为具有双重效应:一方面,这些行为界定了技术系统的功能边界,决定了技术系统本身的安全水平;另一方面,这些行为通过建立技术使用规范和框架,塑造着社会系统接纳人工智能技术的路径依赖和底层技术安全。正是这种独特的枢纽地位,使基础模型提供者位于特殊地位。
2.将基础模型提供者的义务定位于耦合结构
基础模型提供者位于连接技术系统与社会系统的特殊地位,其既需要确保提供行为瞬间的技术安全,也需在后续应用中维持技术原点的安全。鉴于基础模型的不安全可能引发下游应用系统的风险,对终端用户产生实质性危害,基础模型提供者必须履行相应的风险防范义务。然而,这并不完全是技术系统能够指涉的领域。技术系统的核心运作遵循着“功能/故障”或“工作/失效”等内在二元砝码,本质上是价值无涉的。这种专注于系统内部效能最大化的逻辑,难以有效调和外部社会系统所承载的多元价值要求。当技术目标与社会价值目标出现偏离时,技术提供者容易产生相应的道德风险。因此,技术系统自身无法充分实现风险的分散,亟需法律系统通过规范性干预提供支撑。在系统论法学的视角下,这种规范性干预功能的发挥需要经由恰当的耦合结构。
所谓耦合结构,是两个系统共同涉及的连接点,其中一个系统的运作或多或少地通过某种机制指向另一个系统的运作,经由各系统特有的二元符码,持续地将外部规范要求转化为系统内部的运作参数。例如,法律与经济系统的耦合通过所有权与契约实现,法律与政治系统的耦合则通过宪法完成。故而,寻找恰当的结构耦合是法律介入技术系统的必要前提。这里面临的首要问题是,确立法律与技术系统能共同识别与交互的连接点。“安全”正是这样一个恰当的连接点。在技术系统中,安全体现为系统的可靠性、可预测性等属性,内嵌于“功能/故障”的二元判断中;而在法律系统中,安全则体现为对社会公共利益的保障,蕴含于“合法/非法”的规范判断之内。正是这种共同但异质的指向,使得“安全”具备了成为系统间连接点的实质基础。但安全尚不足以构成完整的结构耦合,需要进一步将其转化为具备制度化、程序化功能的耦合形式。根据卢曼的理论,耦合结构需要满足三个要素:抽象性、切断共识需求以及能够作为系统之间持续且稳定的“激扰”。将这一理论置于人工智能价值链中,可将基础模型提供者的安全义务作为耦合点。
首先,安全义务是一个高度抽象的法律概念,直接承载法律系统的规范性要求,涵盖基础模型从设计、开发、测试到提供的全流程。它能够包容各类具体风险,使基础模型提供行为均可由“合法/非法”的二元符码所判断。其次,履行安全义务是技术系统进入社会系统的准入条件。法律将原本需与海量下游主体反复协商且难以达成共识的价值判断,前置为具备外部可观察性和法律可评价性的一般义务。只要提供者履行该义务,便意味着基础模型在“原点”满足了内在品质与整体安全的要求。下游应用提供者亦可据此建立初始信任,将注意力集中于各自场景中的具体风险。再次,安全义务实现了技术系统的“可行性”与法律系统的“合法性”之间的结构耦合。通过将其定位为耦合结构,法律系统得以运用“合法/非法”的二元符码,对提供者设定事前的规制要求。这些要求并非直接干预技术细节,而是作为一种外部“激扰”,促使技术系统将安全义务具体化下的一系列规范要求转化为可操作的技术指标。在此过程中,两个系统分别以不同的代码观察并塑造着安全义务,使其成为一个稳定的结构耦合点。
(二)特殊地位的系统性安全风险
要设定精确合理的安全义务,必须明确基础模型提供者所面临的具体风险。当少数主体凭借技术垄断形成生态控制时,容易引发“规模性”风险,也易导致同质化问题。显性同质化会使风险具有“传导性”,而隐形同质化则可能导致歧视、偏见等内容更易渗透,使得模型更具“脆弱性”。此外,基础模型的涌现能力更是引发了预测困境,使得模型的运作过程具有高度的“不透明性”。综合上述风险特性,可将基础模型提供者所面临的风险称为“系统性安全风险”。
1.技术垄断下的生态控制
基础模型的技术垄断正在形成一种具有显著规模效应的生态控制模式,这主要源于技术优势的自我强化机制。由于少数头部企业掌握着核心的技术优势,绝大多数的人工智能系统均依赖于少数、同质化的基础模型,从而在算法、数据和组织这三个层面形成集中效应。这种集中效应不仅表现为传统的市场支配力,更体现为隐形的技术控制力,沿着纵向和横向两个维度展开。从纵向维度来看,模型提供者通过技术架构设计,能够在各类应用场景中预先植入技术标准与功能偏好,构建起以基础模型为核心,连接下游平台、关联业务商家等多方主体的生态系统,形成自上而下的生态主导力。从横向维度来看,基础模型已具备显著的多模态性,其应用场景远超传统市场交易的范畴,会在社交、汽车等更广泛的社会生产领域产生影响。这种横向跨界,使得模型提供者得以在不同行业间建立依赖关系,形成辐射式的生态控制模式。
2.同质化下的风险传导
技术垄断在造成生态控制的同时,也会引发人工智能领域前所未有的同质化现象。目前市场上大量的专用模型与场景化应用,本质上都是对基础模型进行微调或衍生开发的结果。即使部分应用开发者自研基础模型,但受限于算力瓶颈与数据壁垒,亦无法撼动基础模型主导的同质化格局。显性同质化最明显的效应即为偏差复制和风险传导。当所有人工智能系统都植根于同源基础模型时,原始模型潜藏的知识幻觉、数据噪声等技术缺陷将被精准复制到下游应用,使得风险呈现出传导性。同时,当技术生态过度依赖于少数基础模型时,整个系统将陷入依赖关系网络,形成类似金融系统“大而不能倒”(too big to fail)的“过度关联而不能倒”(too connected to fail)困境,呈现出显著的脆弱性。
除了显性同质化之外,在少数基础模型算法单一文化的影响下,应用系统输出的选择或判断会逐渐趋同,形成隐性同质化的现象。这种同质化的表现不是如同缺陷、偏差传导般的显性强制,而是一种难以被察觉的隐性价值观传递。这些价值观既可能根植于历史数据中固有的社会偏见,也可能在应用系统间的动态互动中自发形成。这意味着,同源基础模型不仅赋予了应用系统高度相似的底层认知逻辑,更预设了它们在真实场景中会以相似的方式“思考”与“行动”。这使得集体偏见不再依赖于初始指令,而会在动态交互中自动涌现。以自动化简历筛选为例,各大企业基于相似基础模型开发的筛选系统,不仅会延续历史数据中的既有偏见,更可能在系统间相互参照的过程中,形成并固化一套趋同且未经审视的新标准。具体而言,某个偶然被多个系统初始采纳的筛选倾向,可能会在交互中被标记为“有效经验”。在底层逻辑相似的基础上,各系统会以相同的方式解读并学习这一“经验”,从而逐渐排斥其他可能性。当此类趋同标准被企业广泛采用,会导致人才多样性降低,最终损害整体人才资源的质量。这种风险犹如“温水煮青蛙”,长久以往,这些在动态中形成并被强化的歧视、偏见和缺陷,将被隐性嵌入政治、经济、公共服务等基础模型接入的各种社会场景中,成为一种组织规范乃至国家制度安排,演变为一种系统性歧视和缺陷。
3.涌现能力下的预测困境
在规模参数的驱动下,基础模型展现出显著的涌现能力(emergent abilities)。这种特性既是模型创新的重要源泉,也意味着模型行为与潜在故障难以预测,存在高度的不确定性。更为复杂的是,当涌现能力与模型同质化相互叠加,通过微调传递至下游应用时,会引发难以预见的交互效应,产生三重预测困境。其一,不可观察性带来的预测困境。这一不可观察性是指人类难以理解模型输出的内在机制,导致在模型应用中无法提前识别潜在风险,也无法迅速采取措施以应对风险。其二,不可解释性带来的预测困境。相较于一般模型,基础模型对“提示”更具敏感性,细微的参数改动可能引起输出结果的巨大变化,而当多变量协同作用时,各因素间的复杂交互更使得因果追溯几乎不可行。其三,不可控制性带来的预测困境。传统专家系统遵循确定性逻辑,具体的输入指令往往会导向预期的控制效果,而基础模型因内在的复杂运作,即便输入看似精确的调控指令,其输出仍可能偏离预设轨迹,致使控制目标无法实现。这三重预测困境在人工智能价值链中形成了多重信息壁垒,不仅应用系统提供者、使用者与基础模型提供者之间存在信息不对称,甚至基础模型提供者与基础模型本身之间也存在着信息不对称。
(三)系统性安全风险下的系统安全保护义务
面对系统性安全风险,设定基础模型提供者的安全义务应回归风险控制、收益匹配与合理期待的义务承担逻辑。鉴于基础模型提供者的技术控制地位及营利属性,其具备承担安全义务的正当性。同时,考虑到其能力的局限性,将这一义务界定为“安全保护义务”。
1.安全保护义务之正当性
基础模型提供者筛选训练数据、编制算法架构、控制模型性能,既是风险中心,亦是控制中心。从数据源头的甄别、核心算法的构建到最终模型的优化,提供者实际直接控制了模型的知识边界、价值取向、推理逻辑和优化目标,间接控制了下游应用系统的数据范围、数据内容、算法模式和输出质量,始终把控着技术系统内部的安全阈值。作为兼具技术权威与风险管控能力的主体,提供者对模型、算法与数据均具有控制能力,不仅能够凭借其专业能力判断模型存在的内生风险,更能通过专业手段主动防范潜在危害。这种从源头构建到终端输出的控制能力,以及与之对应的风险识别能力,是确立其承担安全义务的法理基础。
基础模型提供活动的营利性进一步强化了提供者义务承担的正当性。在这一点上,开源模型与闭源模型的义务承担逻辑略有不同。当前闭源模型的商业运行通常是通过许可、授权等合同条款限制模型的使用权限和功能,以期通过技术壁垒实现模型独占并获取直接的经济回报。由此可见,闭源模型提供者天然依赖直接的经济回报机制,基于利益与风险对等原则,其应当履行相应义务以维持技术系统内部的安全。而开源模型的营利则是通过构建生态、提升品牌价值或提供后续商业化服务等间接方式实现。尽管商业模式不同,但其本质依然符合营利性质。营利活动天然会伴随社会责任的产生,基础模型提供者作为核心技术的输出方与受益者,在获取商业利益的同时,理应承担相应的安全保护义务。
2.安全保护义务之合理性
为何将基础模型提供者的义务概括为安全保护义务而非安全保障义务?其缘由在于“保护”与“保障”的法义分野。“保障”一词作为谓语,较多出现在宪法条文的表述当中,与“人权”“国有经济”“各少数民族合法权利和利益”等内容衔接,指向的是一种“国家运用政权力量来保证相应目标实现”的含义;“保障”一词作为名词则较多与“基本权利”“物”等概念相联结,义务主体明确指向国家,强调国家意志、公权力介入及结果的确定性。由此可见,“保障”蕴含着高度的结果导向责任,而基础模型的风险来自多重因素的衔接错位,某些风险的彻底消弭受制于复杂的社会条件及其对应制度的构建与完善。同时,数据基础设施、算力资源等战略性要素的供给保障,本质上应属于国家治理责任的范畴。
相较之下,“保护”一词更能精准表述基础模型提供者作为私主体所应承担的法律义务,且具有明确的法律规范基础。尽管我国现行法律尚未对基础模型提供者的法律义务作出专门规定,但以《中华人民共和国网络安全法》(以下简称“《网络安全法》”)、《中华人民共和国数据安全法》(以下简称“《数据安全法》”)等法律为核心的法律体系,已为其确立了安全保护义务的基本框架。一方面,《暂行办法》虽主要面向服务提供者,但其相关规定可为基础模型提供者的义务设计提供重要参考。该办法第13条所要求的“安全、稳定、持续”服务,即为整个领域确立了安全的价值导向,也可作为基础模型提供者保护义务的间接依据。另一方面,《网络安全法》与《数据安全法》分别确立了网络运营者和数据处理者的网络安全保护义务与数据安全保护义务。基础模型提供者作为同时涉及网络运行与大规模数据处理的主体,理应同时承担上述两项义务。在此基础上,基础模型提供者法律义务的概括需立足基础模型系统性风险的特征,对现有法律规范进行整体性解释与适用。通过将《暂行办法》所确立的“安全”价值导向,与《网络安全法》《数据安全法》等法律规定的具体的“安全保护义务”相结合,对基础模型提供者的义务进行必要的延伸与整合,从而推导出其承担“系统安全保护义务”的结论。该义务要求基础模型提供者从整体上确保技术系统的安全、稳定与持续,并在其能力范围内防范系统性风险的发生。
04系统安全保护义务的设定逻辑
法律义务的设定除了考虑价值层面的“应当”外,还需以一定的行为模式为基础,以可能的法律责任为保障。以一定的行为模式为基础须明确系统安全保护义务的规范重点;以“可能的法律责任”为导向则需要考量义务设定的外延,厘清义务的合理边界。
(一)义务设定的基本前提
基础模型提供者系统安全保护义务的设定,应遵循两个基本前提:在鼓励发展的导向下,设定合理的风险容忍度;在技术可行的前提下,设定可靠的义务适配度。
1.发展导向下风险容忍的合理性
基础模型是人工智能的底层技术支撑,属于国家重点发展的领域,需在“引领发展新质生产力”的政策指引下,设定合理的风险容忍度。这一立场具有宪法和法律两个层面的依据。首先,我国宪法第20条规定“国家发展自然科学和社会科学事业,普及科学和技术知识”。该条款作为国家目标规范,以原则性的方式确立了科技发展的宪法地位,属于“目的程式”,在法律解释和适用过程中,应遵循“禁止过度”原则,避免对以创新发展为本质的科技事业施加不当限制。因此,对于基础模型发展过程中可能伴生的风险,行政机关与社会公众均应保持合理容忍。其次,《网络安全法》《数据安全法》等法律法规也体现了积极利用、促进发展的理念,要求鼓励技术创新与应用。由此可见,从宪法目标到具体法律规范,我国法律体系已为技术发展构建了鼓励创新的制度环境,对基础模型提供者的义务设定也应秉持这一理念。
2.技术可行性下的义务适配性
基础模型提供者的义务设定需要尊重技术可行性原则,在技术限制的范围内实现风险预防。一方面,对基础模型提供者的义务设定不能以过渡损害模型本身为代价,即需要尊重技术运作的内在逻辑,不得要求提供者剥离模型运行所必需的核心数据要素,否则可能破坏技术系统的完整性,加剧风险传递。另一方面,对基础模型提供者的义务设定须以现有技术能力为基准,既不能滞后于现有技术发展水平,也不应超越现阶段可实现的合理预期,在现实可行和能力可及的条件下设定标准。对于当前技术条件下难以全面落实的规范义务,可采取渐进式路径,通过倡导性规范引导技术创新方向,为技术迭代预留合理空间。同时,建立阶段性评估机制,待技术成熟度提升后逐步强化义务要求。
(二)义务内容的规范重点
设定基础模型提供者的系统安全保护义务,需寻找适应数字时代的权利义务观,在此基础上厘清相应的义务内容和规范重点。
1.以“共同善”为基础的权利义务观
在法学理论中,对法律义务的探讨多附着于法律权利的概念。主流理论进一步将“个体权利保护”视为法律义务的核心目的与正当性基础。这一理论在数字时代面临一定的挑战。首先,以个人主义为内核易忽视权利的社会嵌入性与实现所需的共同体支持。数字时代下,个体权利的行使深度嵌套于由他者行为与技术架构构成的网络之中。就人工智能生态而言,基础模型提供者、应用系统提供者与用户之间不是简单、单向度的影响与被影响关系,而是一种共同发展的关系。用户的知情权依赖于基础模型所开放的解释能力;下游应用提供者的服务质量,根本性地受制于其所调用的基础模型的性能。其次,个体权利受损呈现出“低损害、涉众性”的特征,轻微损害的可救济性不足在一定意义上形成了一道广泛的“免责屏障”,导致由个体权利所串联的义务与责任,难以有效地向责任方传递。就人工智能系统而言,不透明的算法黑箱、难以证明的因果链条均阻碍了个体救济的有效性,大量与个体权利相对的义务被虚置,继而导致“微量损害”的违法成本被外部化。再次,某些权利是否可以被视为个体权利这一问题本身存在争议,权利归属与具体内容的模糊,致使相应的义务设定缺乏依据。
因此,必须重构对“权利基础”的理解以回应时代需求。拉兹的共同善权利观为此提供了法理基础。该理论将焦点从个人维度转移到社会或集体面向,主张集体维度也应该构成理解权利的内在要素。其背后与义务的关联性在于构建了“个人利益+共同善—权利的重要性—义务”这样的逻辑链条。这意味着,权利本质上是共同体为促进共同善而认可并保障的规范性主张。相应地,法律义务的设定可以基于更广泛的社会利益和系统稳定性。共同善权利义务观并非是空洞的,它在不同情境中有具体的内涵,核心在于识别那些为社会成员的合作与协调提供意义基础的关键因素。
这一理论与复杂、自适应的人工智能生态具有内在的契合性。首先,有效应对人工智能所固有的“弥散性损害”问题。相较于个人权利观所表现出的反应性特征,共同善权利义务观更具塑造力,其授权监管机构从整体利益出发实施必要的事前规制。同时,监管机构可以代表众多微小损害的主体对违法者提起公益诉讼,将外部化的违法成本重新内部化。其次,共同善权利义务观有助于破解“责任主体模糊”的困境。为应对复杂的人工智能价值链条,其考虑“谁最有责任去维护相关的共同善”这一问题。据此,可沿人工智能价值链,根据不同主体的角色为其分配相应的义务。再次,共同善权利义务观为价值权衡提供了更具说服力的论证框架。它强调,某些义务的设定旨在“促进个体权益与共同体的整体福祉”。将这一观点应用于人工智能生态中,各主体在维持追求其自身目标所需的基础条件这一点上都具有一定利益,这种条件即可概括为“维护一个免于系统性风险的人工智能生态”。在此关系下,保护个体的相关权利不仅是为了个体利益本身,更是为了维护“可信的人工智能环境”这一共同善目标。
2.“共同善”权利义务观下的义务重点
要在共同善权利观下进行义务设定,需要关注两个重点。其一,在预防治理的理念下,更加注重事前风险的防范,依托外部规范来构建秩序。共同善义务观以建立互惠性数字关系和防范系统性风险为目标,在义务设定上必然更强调事前义务。在义务内容方面,区别于传统部门法下的义务划分,数字关系中的各类义务需要协同化发展,囊括公共责任、技术义务与伦理义务。就公共责任而言,基础模型提供者主导模型价值与技术标准的制定,具有明显的公共属性。因此,其义务设定既需要尊重个体,也需要从共同体的整体利益出发。外部规范中应包含公共责任,以回应国家安全、社会公共利益等目标。就伦理义务而言,共同善义务观要求主体主动构建安全的技术环境,但这并不意味着可以不分场景、不顾法的安定性而随意扩张相关主体的义务范围。伦理的适用范围大于法律,且以义务作为根本性概念。故而可将伦理义务纳入外部规范的范围,伦理中的“不损人”原则能够补充法律中的消极义务,为相关主体设定行为底线;而“利他”导向则可弥补积极义务的不足,让相关主体在共同善的价值追求中,形成一种共同的秩序。同时,基于共同善的价值导向,伦理规则还能推动社会舆论的形成,在强化外部规范效力的同时,构建一种可持续的技术约束机制。就技术义务而言,在人工智能生态网络中,技术义务能够协同多方主体,使其能够依托各自的能力与专长,共同参与并实现价值创造。同时,安全义务的耦合结构地位也要求其内含相关的技术标准与规范,以指涉并塑造技术系统内部的安全。其二,注重互动性义务的设定,强调系统间的互动关系。人工智能上下游系统在知识与实践层面均呈现出显著的共享性、共同体特征与相互依赖性。整个生态的健康发展,高度依赖于价值链各环节之间高频、双向的互动质量,风险与价值均在互动过程中生成。因此,义务设定必须关注人工智能各价值链主体间的沟通、交往与互动关系,以引导整个生态良性发展。
(三)义务设定的合理边界
系统安全保护义务应有合理边界。一方面,由于技术系统风险与具体场景风险在认知层面存在本质差异,该安全保护义务不及于下游具体应用的场景化风险。另一方面,为确保义务设定的精准性,需以各主体的控制能力为依据,划定义务边界。当基础模型提供者对下游应用的控制能力足够强时,需要承担额外的管理性义务。
1.风险认知偏差下的提供者义务边界
系统安全保护义务原则上仅限于对技术系统内部整体安全的保护,不及于下游具体应用场景。从设计初衷来看,基础模型以通用为导向,不预设特定应用场景。这意味着基础模型提供者的义务应聚焦于系统内在机制的安全性,而非外部的场景化风险。从风险属性的角度而言,技术系统的内部风险与具体场景风险存在本质区别,前者是一种技术风险,往往以技术指标作为评价标准,后者则高度依赖于特定场景下的具体社会规范与使用方式,会辅助其他专业标准进行综合评价。以基础模型的翻译任务为例,翻译中的精度偏差本属技术指标问题,但当模型应用于医疗场景时,这一通用风险就转化为具有特定危害性的场景化风险,任何细微的偏差均可能危及人身安全。这种风险的防范,不仅依赖于模型本身的技术指标,更取决于医疗领域的专业知识与监管要求。因此,将此类下游风险归咎于基础模型提供者实属不妥。从责任分配的合理性出发,应用系统提供者处于人工智能价值链的中端,往往直接面向用户,因而更了解具体应用场景与用户使用模式,更有能力对相关风险进行识别与控制。因此,基础模型提供者应更注重技术原点安全的内在评价,应用系统提供者更应注重特定应用场景的具体风险。
2.控制能力差异下的提供者义务边界
基础模型提供者不直接承担下游应用的具体风险,并不意味着其对下游系统完全无所作为。其义务范围的确定,须以“控制能力”为基础进行合理判断。基础模型的部署方式决定了提供者对模型控制权的转移程度,这是划分相关法律义务的核心节点。实践中,基础模型的部署方式主要有开源和API两种,但控制力的强弱并非简单的二元界定。一方面,在法学视野下,开源这一概念本身就意味着完全封闭和完全开放之间的梯度可能,模型架构、模型权重、训练代码等任何组成部分的开放均可称之为开源。另一方面,API服务模式亦存在多样形态,既包括提供标准化调用接口的固定功能服务,也包括云服务商模式,后者还可进一步区分为只访问和可微调的形式。因此,需要根据具体部署情形,关键聚焦两个方面进行判断:其一,部署环境的可控性,即提供者是否对模型运行的基础设施具有控制力。其二,模型调用方式与透明度,即提供者是否能掌握模型调用过程与关键数据。当二者兼具时,属于“强控制模式”,典型如云端即服务(SaaS),此时下游请求与模型输出均处于提供者的控制范围内,其需承担全面的管理义务。而在二者均不具备时,如私有化部署模式,模型提供者与下游服务提供者之间的互动一次完成,模型提供者对模型的直接控制力较弱,形成“弱控制模式”。此时模型提供者不承担管理义务。而位于二者之间的中间模式,其法律义务结构更为复杂,需要根据具体情况和服务协议,以控制元素为标准履行差异化的管理义务。
05系统安全保护义务的体系化建构
现行法律规范虽提供了基础模型提供者系统安全保护义务的规范框架,但未形成体系的、完整的义务内容。在共同善权利义务观的指引下,系统安全保护义务应构建为三重义务体系:一是以技术义务、伦理义务和公共责任为内容的“基础性义务”;二是侧重于系统间交互关系的“互动性义务”;三是提供者对下游应用的控制能力足够强时要承担的“管理性义务”。
(一)基础性义务
基础性义务是所有基础模型提供者均须承担的共性义务,旨在确保技术系统内部的安全。由于技术义务、伦理义务与公共责任在内容上存在交叉,故而围绕基础模型的两大核心要素,即模型与数据,来系统阐述基础性义务。具体而言,包括模型安全保护义务、数据安全保护义务、伦理提示与价值对齐义务。
1.模型安全保护义务
模型安全保护义务的重心在于防范技术缺陷的下游传导,包括模型品质一般保证义务、模型监测与准入义务和事后修复义务三部分。模型品质一般保证义务是指基础模型提供者应当通过科学严谨的算法设计、高质量的数据集构建及规范的训练流程,确保模型具备基础的技术合理性和公平性。这一义务内含算法透明与算法公平的要求,旨在从源头上防止偏见的产生和传导。模型监测与准入包含最初模型准入环节的测试,也包括模型准入后运行过程中的监测。最初准入环节的测试主要要求模型在投入使用前必须经过严格的对抗测试,以确保其不存在可识别的技术缺陷,这一点在欧盟《人工智能法》第55条中亦有明确规定。运行过程中的监测是指模型提供者应开展持续性评估,根据风险监测信息,及时优化调整。事后修复义务则是指在模型运行出现问题时,其应当承担及时修复的义务,包括但不限于及时就相关问题进行补救,避免损失扩大,最大限度地保护有关人员的权利等。
2.数据安全保护义务
基础模型提供者在研发过程中需处理海量数据,其数据安全保护义务主要包括数据收集与存储的安全性、数据来源的合法性与公平性以及数据质量的可控性三方面。其一,数据收集与存储的安全性。一方面,提供者应以《数据安全法》《网络数据安全管理条例》为基准,构建数据分类分级保护制度,对重要数据采取相应的技术措施并定期开展风险评估。另一方面,提供者需要确保数据收集与聚合的可控性。由于数据处理场景的复杂性,行政监管难以预设统一的行为标准,需侧重程序性规制,引导研发者将个人信息保护要求内化为数据处理的设计原则,借助规范化的内部管理程序实现数据的合理收集与聚合。其二,数据来源的合法性与公平性,模型提供者需要确保数据来源合法,尤其需要对开源数据集、外采数据以及通过自动化技术采集的数据进行严格的合规审查。同时,模型提供者还需对数据可能存在的偏见采取适当的缓解措施,以确保数据的公平性。其三,数据质量的可控性。基础模型训练数据的失真是人工智能幻觉的源头,其中蕴含的偏见与结构性不平等,将在下游应用中叠加传递,影响整个智能生态的数据流。因此,基础模型提供者有义务使用高质量的数据训练模型,根据《暂行办法》第7条列举的要求,保障数据的真实性、准确性、客观性与多样性。
3.伦理提示与价值对齐义务
当前,主流的人工智能基础模型普遍具备语言输出和价值导向功能。为应对其潜在的伦理失当风险,提供者应履行相应的伦理义务,确保模型的输出符合社会伦理规范并完成“向善”的价值观引导,主要通过伦理提示与价值对齐的方式实现。基础模型在大规模参数的驱动下具有“提示敏感性”,而该“提示”行为并非仅仅终端用户可以进行操作,基础模型提供者和应用系统模型提供者均会使用“提示”功能,对基础模型进行义务设定。因此,这种“提示”实质上是一种对基础模型的技术约束力。基础模型提供者在训练模型时,往往会以通过自然语言“提示”调控基础模型。这种调控应当植入基于我国刑法、民法典、国家安全法等法律法规构成的内容安全监管框架,明确禁止模型生成任何危害国家安全、破坏社会稳定或传播虚假信息的有害内容。同时,针对可能存在的历史观扭曲、意识形态偏差和价值观误导等潜在风险,以及具有普遍性的伦理问题,都应当建立筛查机制。价值对齐旨在通过技术手段使模型学习并内化人类社会的价值准则,从而确保输出内容符合伦理规范。然而,人类价值观具有多层次、复杂化的特征,尤其是一些蕴含人文情怀的价值理念,往往带有模糊性与情境依赖性,难以通过算法路径进行精准转化。因此,现阶段基础模型提供者需要承担一般有益价值的“弱”对齐义务,而对于那些涉及价值权衡的内容,可在形成一定共识的基础上予以推进。
(二)互动性义务
互动性义务立足于数字时代各主体间的利益共生关系,要求基础模型提供者履行透明度报告义务、信息共享义务与行为协助义务,确保与下游应用主体之间的沟通、交往和互动,以营造系统交互层面的信任安全。
1.透明度报告义务
作为信息共享的关键因素,透明度有助于缓解“黑箱”效应,从而揭示并验证潜在于参数张量中的歧视、偏见及其他风险。基础模型提供者的透明度报告义务主要面向监管机关与公众,其根本目的在于通过信息传递实现一定的监督控制。因此,该报告义务不仅涉及信息的披露,还需对相关内容进行解释。对于一般的基础模型提供者,其报告义务主要限于技术系统固有的基本信息,比如提供者名称、模型训练数据的来源、内外部测试的说明,以及可能存在的系统性风险等。若模型提供者同时承担服务提供者的角色,其报告义务还需包括《暂行办法》规定的生成内容的标识等。此外,透明度报告义务在面向监管机构和用户与公众时,应进行差异化设置。对监管机构而言,透明度报告是一种备案手段,旨在为监督与问责提供依据。当基础模型在下游应用中因微调引发缺陷时,可借助模型提供者在透明度报告中披露的信息进行测试,追溯缺陷来源。在内容方面,鉴于监管机构具有更强的保密性,报告可更为详尽,但也应遵循比例原则,将披露负担及可能引发的风险控制在合理范围内。对于公众而言,由于其专业认知能力和信息保密条件均弱于国家机关,报告方式应更注重通俗易懂,内容上则应剔除可能对模型提供者权益造成重大影响的信息。值得注意的是,透明度义务受制于模型提供者的技术水平与实际情况,完全的透明既不现实亦不可能。
2.信息共享义务
透明度报告义务主要面向监管机关与公众,而信息共享义务主要针对下游应用开发者,主要保证下游应用系统提供者知晓基础模型的必要信息,以便更好地利用基础模型。具体包括以下三方面内容:其一,编制技术文档,说明模型性能与能力限制并制定使用指南,确保下游开发者能够充分理解基础模型的技术特性与功能边界。当然,由于面向的是专业的技术主体,故而可无需将计算机语言进行转换,只要信息可理解即可。其二,当基础模型出现重大技术缺陷或安全隐患时,应当及时告知下游应用系统。其三,当基础模型提供者明确知晓该模型应用于高风险场景时,需额外提供专项技术说明。需要注意的是,信息共享的广度和深度与基础模型下游部署方式有关。特别对于闭源模型而言,基础模型提供者仅需披露确保系统安全所必需的最小化技术参数,而无需开放核心算法细节或训练数据等内容。
3.行为协助义务
人工智能基础模型提供者的行为协助义务,是指当基础模型技术系统出现运行缺陷、功能异常或需要特定技术支持时,提供者应当履行技术协助与调试的义务。这一义务的核心在于确保基础模型的稳定性和可靠性,同时保障下游开发者或用户能够有效利用模型完成预期任务。该义务具体包括三项子义务:其一,缺陷修复义务,即当基础模型存在如安全漏洞或性能异常等技术缺陷时,提供者应及时响应,协助解决问题。其二,调试支持义务,即若用户因技术能力不足或系统兼容性问题需要提供者介入调试,提供者应在合理范围内提供必要的技术支持。其三,为事后解释提供协助。透明度报告义务主要为事前解释,即在人工智能系统投入应用前,对系统的基本要素进行说明;而事后解释,则是在人工智能作出具体决策后,围绕具体决策进行解释。事后解释通常由下游服务提供者履行,但若其因系统专业性而需要基础模型提供者协助时,后者应当提供必要的专业支持。
(三)管理性义务
管理性义务是对技术系统风险和明显不当行为的管理,并不意味着对下游场景化应用的具体风险承担责任。根据基础模型提供者控制能力的不同,“强控制”模式下其需承担全面的管理义务;中间模式下,需要根据具体情况判断控制内容,承担受限的管理义务。
1.全面管理义务
在“强控制”模式下,基础模型提供者基于对部署环境与模型调用流程的完整控制力,需承担涵盖事前、事中与事后环节的全面管理性义务,包括监管审核义务与风险管理义务。监管审核义务属于事前义务,包括API准入审查与特定高风险领域的尽职调查。前者要求设置专门的安全管理机构,对下游开发者的资质进行审核。资质审核内容应涵盖但不限于合理的内容过滤机制、数据安全管理制度、个人信息保护措施等。后者要求在模型提供者明知或应知模型将被应用于高风险场景时,开展更为严格的资质审核与使用场景评估。其中,高风险场景指可能对“重大安全”产生实质性损害的领域,主要包括三类情形:一是攸关人身安全与生命健康的领域,如诊疗服务、自动驾驶等;二是关涉个体重大发展权益、不利影响难以恢复的领域,如教育就业、司法系统等;三是塑造公共认知与社会秩序的领域,如新闻服务、授益给付等。风险管理义务偏向于模型运行中的持续监管与事后响应,包括动态监控义务与应急处置义务。动态监控义务不同于基础性义务中关于模型本身运行的监测义务,而更强调对下游应用系统提供者的监测,通过分析API调用模式、输入及输出内容,识别诸如虚假信息生成、仇恨言论传播、规避安全措施的“越狱”等异常使用行为。应急处置义务则指建立应急预案、对严重违规行为采取即时断流等应急处置措施。
2.受限管理义务
受限管理义务适用于介于“强控制”与“弱控制”之间的中间模式,具体的义务范围需要根据模型调用情况,以控制元素为标准进行差异化设置。若基础模型提供者仅控制部署环境而允许下游对模型进行微调时,其因不接触具体数据流而丧失内容干预能力。此时,提供者的监管审核义务退化为形式上的API准入审查,而无法实施基于内容的高风险审查。其风险管理义务中的动态监控,也仅限于分析API调用频率、错误率等技术数据以识别系统层面的异常,无法触及虚假信息等内容风险;相应的应急处置也仅针对基础设施安全事件,无法对内容安全进行干预。更为常见的情形是,提供者通过合同约定与技术工具保留不同程度的间接控制力,此时其义务范围需依据这些控制点的实际内涵具体判断。例如,若其通过服务条款禁止特定用途并保留了关停违规账户的权利,则其负有相关义务。因此,受限管理义务的本质,是在不具备全链条直接控制的前提下,履行与其所保留的特定控制点相匹配的、局部的、且常常是间接的管理责任。
06结语
以基础模型为代表的新一代人工智能正加速推动人类社会的数字化进程。基础模型提供者位于人工智能价值链中的特殊地位,其“提供”行为连接技术系统与下游应用系统,面临的是剥离场景化风险的系统性安全风险。基于基础模型提供者的技术控制地位与模型提供活动的营利属性,其具有履行系统安全保护义务的正当性与合理性。该义务的设定应遵循两个基本前提:在鼓励发展的导向下,设定合理的风险容忍度;在技术可行的前提下,设定可靠的义务适配度。就义务边界而言,需要判断其是否承担对下游应用的管理性义务。根据下游应用部署模式的不同,义务范围应有所区分:在“强控制”模式下,基础模型提供者需要承担涵盖事前、事中与事后环节的全面管理性义务;而在“弱控制”模式下,基础模型提供者仅需维持技术原点的安全性,履行基础性义务与互动性义务。未来,随着空间智能等前沿方向的发展,基础模型将持续迭代并可能出现新的形态,需要持续跟踪技术发展,并结合多样化的下游部署场景,动态调整义务框架,构建兼顾安全与发展的义务与责任体系。
*本文章仅限学习交流使用,版权归原作者所有。
⚖️
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.