文/周辉
国务院办公厅日前印发的《国务院2026年度立法工作计划》中明确提出,对加快推进人工智能健康发展综合性立法作出部署。该消息在圈层内引发广泛关注。
关于人工智能立法的讨论,一直存在不同声音,有的认为当前立法需求尚不迫切,担心立法会拖累发展的步伐;也有观点认为,人工智能已经嵌入到不同场景,很难有一部法律来作统筹管理。
中国法学会网络与信息法学研究会常务副秘书长、中国社会科学院法学研究所网络与信息法室副主任周辉认为,人工智能风险具有弥散性和累积性,越早建立可预期的制度框架,治理成本越低;而好的立法,本质上是促发展的立法。
“不是简单‘管不管’的问题,而是进一步解决如何‘管得好’的问题。”他指出。
对于“综合性”该如何理解,他提出,不是要制定一部包罗万象、事无巨细的人工智能法典,而是人工智能领域的“基础法”或“一般法”,为后续配套政策预留出制度接口。
目前,中国已出台生成式人工智能、人工智能拟人化等政策文件。周辉认为,人工智能统一立法会增强规则稳定性,提升治理协调性,减少碎片化治理带来的制度成本,补足低位阶规则无法解决的问题以及提升国际竞争力。
不能套用“先发展、后规范”的旧经验
《21世纪》:关于人工智能立法,一直以来都有发展与规则如何平衡的争论,也有观点认为当前立法需求尚不迫切,对此您如何看?
周辉:我认为,人工智能立法并不是在“发展”和“规则”之间做非此即彼的单选题。真正需要讨论的,是如何通过科学、适度、有效的规则,为人工智能发展提供更加稳定的制度环境。
我们不能套用早期互联网时代“先发展、后规范”的旧经验。人工智能作为一种通用目的技术,其风险具有弥散性和累积性,贯穿了从设计、训练到部署运行的全过程。如果等风险大规模显现甚至引发系统性危机后再去被动规制,治理成本将极其高昂,甚至会积累不可逆的风险。
当然,强调立法的必要性,并不意味着要采取简单的强监管,更不是要把人工智能技术“管死”。好的立法应当是促发展的立法。它要明确哪些行为可以做、哪些行为不能做、哪些场景需要更高的安全要求,从而降低企业创新过程中的不确定性和试错成本。
所以,我不赞同“当前立法需求尚不迫切”的判断。恰恰因为人工智能发展快、影响广、风险复杂,才更需要通过立法建立可预期、可协调、可更新的制度框架,在法治轨道上推动人工智能健康发展。
《21世纪》:此次公布的《国务院2026年度立法工作计划》提出:对加快推进人工智能健康发展综合性立法作出部署,如何理解“综合性”,这意味着什么?
周辉:理解“综合性”,首先要澄清一个误区:我们不是要制定一部包罗万象、事无巨细的人工智能法典。人工智能综合性立法更应被定位为人工智能领域的“基础法”或“一般法”,要从整体上回应人工智能发展和治理中的基础性、全局性问题。
这种“综合性”的内涵是非常丰富的。在内容上,人工智能治理不能只关注算法,也不能只关注数据,还要统筹模型、算力、应用、责任、监管、促进政策等多个方面,形成相互衔接的制度体系。
在范围上,人工智能风险并不只发生在应用端,很多问题在设计、训练、部署阶段就已经形成。因此,立法要覆盖从研发到应用、从上线到退出的全过程,而不能只是在问题发生后进行补救。
在功能定位上,人工智能立法不能只是“监管法”,也不能只是“促进法”。它应当同时承担促进发展、风险防控、权利保障和权力规制等多重功能。
这也意味着,人工智能综合性立法应当发挥基础性、统领性作用。它要确立基本原则、基本制度、基本权责和监管框架,同时保持足够的弹性,为后续的配套规章、行业标准、地方先行先试以及具体场景治理预留出广阔的制度接口。
综合性立法并不排斥场景化治理
《21世纪》:随着人工智能技术广泛嵌入到社会工作与日常生活,场景越发复杂,风险也会因不同的领域与场景而不同,立法将如何包容不同的场景?
周辉:人工智能立法要包容不同场景,关键是不能用一套僵硬规则处理所有问题,而是要建立“统一底线、分类治理、动态调整”的制度结构。
首先是要确立统一的基础规则,比如安全、透明、可问责、个人权益保护、人类监督、风险评估等要求,应当成为人工智能研发和应用共同遵循的底线。
其次是承认不同场景之间的风险差异。医疗、金融、交通、教育、政务、司法等领域,风险性质和风险后果都不一样,不能简单适用同一套标准。比如,政务和司法场景涉及公权力运行,应当更强调程序正当、公开透明和最终责任归属;医疗场景涉及生命健康,应当更重视安全验证和责任追溯;开源模型则要在安全义务和创新空间之间作出特殊平衡。
再次,要通过制度设计保持弹性。人工智能技术变化很快,立法不可能一次性预判所有场景。因此,可以通过负面清单、监管沙盒、地方试点、动态评估等机制,使规则能够随着技术发展和应用变化不断调整。
所以,综合性立法并不排斥场景化治理。相反,它是为不同场景的治理提供统一框架和制度接口,使不同领域能够在共同规则下进行差异化、精细化治理。
《21世纪》:过去几年,关于人工智能的相关政策文件也在密集出台,更高位阶的立法意味着什么,会带来哪些影响?
周辉:过去几年出台的部门规章和地方政策确实起到了及时应对的引导作用,但随着产业深化,它们的局限性也日益凸显。主要痛点在于效力位阶较低、缺乏统筹,极易导致部门间权责交叉,出现“监管重叠”与“监管空白”并存的“九龙治水”现象。仅靠碎片化的政策,很难为企业提供稳定、权威的合规预期。
我认为,更高位阶的立法,意味着人工智能治理从政策引导、部门规章和地方探索,上升为国家层面的统一法律制度安排,至少会带来以下几方面影响。
一是增强规则稳定性。企业可以更清楚地判断未来制度方向,形成更加稳定的研发、投资和合规预期。
二是提升治理协调性。通过法律统一基本原则、监管体制、权利义务和责任规则,可以减少碎片化治理带来的制度成本。
三是补足低位阶规则无法解决的问题。比如民事责任分配、责任豁免、税收支持、许可准入、基础性权利义务安排等,往往需要法律层面的依据。
四是提升国际规则竞争能力。人工智能治理已经成为全球竞争的重要组成部分。通过高位阶立法,可以更清晰地表达我国在人工智能发展和治理中的基本立场,也有助于增强国际话语权。
《21世纪》:目前法律法规是否存在与人工智能发展不匹配的地方,立法的话将如何补足?
周辉:目前确实存在不匹配的地方,而且这种不匹配不是个别条文的问题,而是更深层的体系性问题。
第一,现有规则对人工智能核心要素的覆盖还不充分。当前制度更多关注数据、网络安全、个人信息保护、算法推荐等问题,但人工智能的发展还涉及模型、算力、基础大模型、开源模型、模型参数、训练数据合法使用等内容,这些方面还缺少系统规则。
第二,传统法律规则难以充分回应人工智能带来的新型法律关系。比如,模型训练使用受版权保护的数据边界在哪里,人工智能生成内容的法律地位如何认定,基础模型出现缺陷并传导到下游应用时责任如何分配,算法黑箱导致受害人难以举证时如何救济,这些问题都需要新的制度回应。
第三,一些旧规则可能反过来制约创新。比如版权规则、数据流通规则、交通管理规则、产品责任规则,如果不能适应人工智能场景,可能导致企业不敢创新,地方不敢试点,监管部门也难以把握边界。
所以我认为,要补足这些短板,立法必须进行范式创新,具体可以从以下几方面着手:
一是建立覆盖数据、算法、模型、算力的全要素激励保障制度,比如探索模型训练的法定许可、算力建设的专项补贴等,为人工智能发展提供基础性规则。
二是建立分主体责任体系,打破单一责任框架,根据研发者、提供者、使用者的技术控制力和收益获取度精准分配义务,同时也区分平台、算力服务商、政府部门、开源贡献者等不同主体的义务和责任。
三是建立全生命周期治理机制,把风险防控前移到设计、开发、训练和部署阶段,而不是等到损害发生后才追责。
四是建立动态适配与暂停机制,确立国家人工智能主管机关的枢纽地位,通过立法后评估、监管沙盒等接口,让法律体系能够主动塑造技术环境。
归根结底,人工智能立法要解决的不是简单“管不管”的问题,而是进一步解决如何“管得好”的问题,即如何通过系统、稳定、开放、可更新的法律框架,让人工智能在安全可控的基础上释放更大的发展潜力。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.