网易首页 > 网易号 > 正文 申请入驻

周智博:生成式模型嵌入数字政府的技术跃迁与法治调适 | 北方法学202505

0
分享至

【作者】周智博(天津财经大学法学院讲师)

【来源】北大法宝法学期刊库《北方法学》2025年第5期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。


内容提要:当前,以DeepSeek为代表的生成式模型正处于高度迭代期,厘清技术跃迁背后的“技术赋能—科技风险—法治调适”框架无疑是数字政府建设的重要议题。DeepSeek技术跃迁在一定程度上驱动了数字政府的内容生成、数据共享、人机互动及算法决策,成功推动了数字政府功能形态的转型升级。然而,在赋能数字政府建设的同时,DeepSeek也隐含行政公共架构消解、归责链条断裂、程序正当侵蚀及公民权利侵犯等新型风险。由此,基于组织法治,应以公共利益导向增强生成式模型的算法公共性,以权责统一原则增强生成式模型的技术责任性,以算法解释机制增强生成式模型的程序规范性;基于权利法治,应将法律保留原则与比例原则结合,从形式和实质两个维度构建一个虚实兼备的权利法治调适体系。

关键词:生成式模型;数字政府;技术跃迁;法治调适

目次 一、问题的提出:技术跃迁视域下的数字政府建设 二、生成式模型技术跃迁赋能数字政府建设 三、生成式模型技术跃迁隐含算法风险机理 四、生成式模型技术跃迁背景下的组织法治调适 五、生成式模型技术跃迁背景下的权利法治调适 六、结语

问题的提出:技术跃迁视域下的数字政府建设

纵观历史发展,政府治理形态演进往往伴随着技术范式革命,每一次科技迭代都会深刻影响数字政府建设。近年来,生成式模型的技术变革效应尤为明显。如何透过技术跃迁表象,将技术赋能与风险规制融入法治框架,对于数字政府建设的良性发展无疑具有重要意义。2022年年底,OpenAI推出全球首个对话型通用人工智能,即ChatGPT。基于Transformer架构与人类反馈的强化学习(RLHF)技术,ChatGPT在创造性思维测试中展现出与人类顶尖专家相当的推理能力,重构了人机交互的认知范式。就在美国生成式模型技术一路突飞猛进的同时,2025年初,中国深度求索公司顺利发布了开源模型DeepSeek-R1,再一次掀起了技术跃迁的浪潮。不同于OpenAI的“算法封闭”体系,DeepSeek另辟蹊径,凭借着广开源、低成本、强适配、深推理的技术属性,重塑了全球人工智能产业格局,由此将大模型技术跃迁推向一个新的台阶。随着DeepSeek的广泛应用,越来越多的地方开始将其嵌入数字政府建设。例如,2025年3月,安徽省级政务“云果断”进行了DeepSeek满血版(671B)部署,本次部署集成公文写作、数据分析报告、语音转文字、人机互动等16项典型政务应用,为当地数字政府建设开辟了全新局面。

不过,面对生成式模型在数字政府场域中的高歌猛进,理论上在强调技术赋能的同时,也应透过现象看本质,对生成式模型嵌入数字政府的技术跃迁、风险形态以及法治调适加以系统性思考。这不仅关系到数字政府建设的合法性与正当性,更直接影响着技术赋能与风险规避的逻辑统一。自DeepSeek发布之后,学界围绕DeepSeek在教育教学、科技创新以及国际传播等应用领域展开了大量研究,无疑为本文提供了重要的智识基础。然而,当视线聚焦于数字政府建设,则发现既有研究多聚焦于DeepSeek的技术跃迁表象,鲜有学者系统解构生成式模型与数字政府治理的深层互动。这集中表现为:一方面,技术赋能与风险调适的综合统筹缺失。既有文献多将DeepSeek视为推动数字政府建设的一次全新契机,认为DeepSeek能够有效推动政务服务、政务传播、知识生产的范式升级,但在一定程度上忽视了生成式模型技术跃迁背后赋能与风险的“双刃剑”效应,这种偏重一面的研究思路很可能给算法权力异化埋下隐患。另一方面,法治调适理论的供给不足。在数字政府建设过程中,数字政府法治化和法治政府数字化始终是绕不开的议题,然而,相比于法治规范,学界更强调将DeepSeek融入相邻可能性、技术规制等治理框架,并未将法治范式贯彻于生成式模型运行始终,在一定程度上形成了“法治真空”与“技术超载”并存的悖论。更重要的是,现有研究仅仅聚焦于DeepSeek的范式革命,并未透过现象看本质,建构一套更具时空性和延展性的理论。其直接后果是,学术探讨始终局限于DeepSeek技术工具论的窠臼中循环论证,既不能完整阐释生成式模型对政府权力体系的重塑,也不能建构一套包容未来技术跃迁的动态坐标系。

本文认为,DeepSeek对于数字政府建设无疑具有重大赋能意义,但作为一种科学技术,DeepSeek本质上并未摆脱生成式模型的固有缺陷。唯有立足于法治视角,将视线聚焦于本体论意义上生成式模型的治理价值和规制框架,才能让DeepSeek嵌入数字政府更具延展性、渗透性和解释力。无论生成式模型发生何种迭代,深度学习、人机交互、内容生成始终是其最为核心的算法架构,唯有透过现象看本质,剖开从ChatGPT至DeepSeek的技术变迁表象,着重研究更为本质的生成式大模型与数字政府的内在互动机理,才能揭示技术迭代背后恒定的治理范式转型规律。换言之,对DeepSeek的观察必须超越具体模型性能比较,转而关注公共性算法、算法责任、正当程序、法律保留以及权利保障等元命题,方能使理论建构适应生成式模型技术迭代表象下的治理范式转型,进而形成指导数字政府建设的持久性认知框架。有鉴于此,本文立足于法治思维,对以DeepSeek等生成式模型嵌入数字政府的技术跃迁、风险机理、法治规范进行系统研究,从而完成数字时代行政理性的路径重构,并最终创设一套兼具解释力与预见性的法治调适框架。

生成式模型技术跃迁赋能数字政府建设

时下,以DeepSeek为代表的生成式模型技术跃迁,有效驱动了数字政府的内容生成、数据共享、人机互动以及算法决策,将数字政府建设推向了一个更高的台阶。

(一)内容生成:从机械演绎到模态生成的场景拓展

在电子政务时期,政务文本生成高度依赖规则引擎与模板填充,这种机械演绎模式虽能保障政策表达的有序性,却难以应对复杂治理场景中的非结构化需求。生成式模型技术跃迁推动了数字政府从单模态语言生成向多模态场景建构的范式突破,为政府数字化转型提供了全新的技术底座。

首先是多模态场景政务文本的技术赋能。传统电子政务在文本生成过程中,输出内容被严格限制在结构化数据库与模板填充的线性框架内。生成式模型的嵌入直接摆脱了原有电子政务的现实困境。以DeepSeek为例,基于深度学习和多模态生成技术,政务处理可以突破传统机械场景,将预设规则与跨模态语义理解相结合,形成集图片、文字、视频、音像为一体的协同生成模式,进而驱动政务信息表达形式与治理场景需求的动态耦合。这种多模态生成模式突破了传统单一文本生成模式的局限性,使多维信息要素实现立体化结合,由原本固定的文字传达模式升级为全息化的场景再现,从而在技术层面完成了政务文本内容生产从“机械复制”向“智能涌现”的范式更新。

其次是多模态场景政务知识的生产赋能。传统政务搜索知识库更多是经验性符号化表达,很难在分散逻辑规则中建立起系统的知识图谱。DeepSeek等生成式模型通过多模态知识图谱与分布式认知架构的深度融合,有效突破了传统政务信息系统的线性知识建模逻辑,重塑传统政务知识获取方式、概念关联模式与学科边界感知,成功构建了一个知识要素组合、推理与涌现的政务知识共创系统。同时,当深度语义理解能力与多模态生成技术相结合,政务知识便突破了文本载体的物理约束,转化为场景自适应的立体化知识服务体系,实现了从“经验驱动的知识封装”到“数据驱动的知识涌现”的飞速跨越。

再次是多模态场景政务知识的传播效能。传统电子政务系统受限于政府工作人员预设的模板逻辑,其所输出的文本信息只能停留在符号表意层面,无法对多维完整的政策信息进行全方位传播。而DeepSeek等生成式模型通过跨模态对齐技术,能够将原本一维文本传播模式跃升为视觉、听觉等多感官皆可感知的具象化表达。这种兼顾视觉与听觉的多模态信息介质,重塑了政策制定者、知识传播者与信息接收者的价值共创网络,实现了政务信息传播效能的质变。例如,在无锡市城市运行中心,DeepSeek通过将文字、语音通话记录、会议录音、摄像头画面等多模态信息融合,成功重塑了城市数字治理的智能化版图。

(二)数据共享:从科层管理到算法协同的模式重构

一方面,生成式模型可以充当数据整合的桥梁。当前,数字政府建设或多或少存在“数据孤岛”现象,这不仅体现在物理层面分散的数据存储,同时也表现为行政系统内部知识表达的分裂。依托于规模化的数据处理和算法开源技术,DeepSeek能够将不同部门数据纳入统一框架,当生成式模型接收到市场监管部门的准入登记数据、税务部门的征收记录、环保部门的监测报告等信息时,系统可以自动探寻各数据间的潜在联系,建立认知关联网络。也正是意识到这一点,辽宁省沈阳市通过DeepSeek模型的本地化部署,有效打破了政府部门间的信息藩篱。从这一意义上讲,生成式模型的创新性知识重组机制,本质上是对原本分散行政数据流的形式化统一与逻辑化重组,能够有效突破传统数据整合中的浅层耦合局限,推动政务数据从科层管理向协同治理转型。

另一方面,生成式模型能够实现知识的动态重组。基于深度学习与内容生成式算法,生成式模型不仅能够实现同维数据整合,还能驱动实现异源异构数据的知识对齐与逻辑贯通。传统科层制体系下的数字政府建设,在遇到诸如政策文件、审批记录、监管报告等异质化数据时,只能将多元数据转变为机器可接收的语义内容,实现物理上的叠加处理和表层融合。而DeepSeek以“注意力重塑机制”为基底,能够充分扮演好翻译者和组织者的双重角色,经由算法深度加工,原本分散于各行政部门的数据流可以转化为不间断的知识场域,通过高维空间中的语义嵌入与关联映射,形成跨越部门边界的动态知识图谱。总之,生成式模型既能将不同领域的专业术语转化为通用语义表征,又能在动态更新的知识网络中建立跨域关联规则,使科层制背景下分散的行政数据突破组织边界,在算法驱动语义空间内实现系统性的知识整合。

(三)人机交互:从单向输出到智能交互的形态嬗变

伴随着生成式模型的技术跃迁,数字政府人机交互范式也发生转变。基于生成式模型在语义理解、场景建构与认知增强领域的技术支持,政府服务逐渐从程式化应答向智慧化交互演进。

一方面,从单向输出到双向对等。在传统电子政务场景中,政府与行政相对人的信息传递多以单向输出为主,交互本质是将制度文本通过机械渠道加以线性辐射。这种模式将政府设定为信息发射源,公众降格为被动接收终端,政务交互过程中的政策解释与民意反馈往往被割裂为两个独立回路。其间,政府更习惯于将各类政策和法规平铺于政府网站之上,公众对于信息的探察只能借助搜索引擎,时常陷入知其然而不知其所以然的尴尬境地。但随着生成式模型的嵌入,传统单向输出为主的机械性交互场景被打破。依托于语义理解、上下文关联及意图预判能力,生成式模型在一定程度上重新定义了人机交互的逻辑框架。立足于平等交互范式,DeepSeek能够以高度拟人化和富于亲和力的方式帮助公众与政府主体开展沟通交流,在此情况下,政策咨询与人际互动不再是单向式、机械式、命令式的匹配,而是转变为双向型、友好型、协商型的场景对话。典型如为深化政务人机交互,深圳市宝安区基于“腾讯混元+DeepSeek”上线“小宝”助手,结合宝安区专属知识库,“小宝”可以实时掌握最新办事指南、政策信息等,并通过深度思维链分析理解办事意图,确保咨询服务精准可靠。

另一方面,从笼统交互到精准适配。传统数字政府人机交互过程中,受限于算法技术支撑不足,系统只能将公众诉求加以“笼统应对”以及“泛化响应”。事实证明,这种有限预设规则与通用交互模板虽然能满足公众基础性交互需求,但在应对公众多样化政策诉求上愈发捉襟见肘。相比之下,基于规模化的数据处理和深度化的内容学习能力,生成式模型可以构建起政策语义的动态映射空间,使人机对话突破表层信息交换局限,让政务交互进阶为“一对一”的量身定制场景。以DeepSeek为例,在人机交互过程中,每一次人机互动,DeepSeek都能够结合上下文洞悉用户的精准需求,同时在结果输出中,DeepSeek也能够根据用户特有的身份特征、历史行为数据及实时交互语境为用户搭建个性化的政务画像。例如,依托于DeepSeek,深圳市福田区专门设置了70名“AI数智员工”,涉及11大类240个政务场景,标志着DeepSeek垂直知识谱系正式迈向行政场域。

(四)算法决策:从经验驱动到数据赋能的范式跃迁

生成式模型具备强大的信息推理能力,依托于深度模拟学习系统,能够在大量训练中自主学习各类数据知识,利用深度学习算法适配数字政府决策需求。

一方面,从静态决策到动态决策的范式跃迁。传统行政决策多遵循经验主义推理逻辑,受限于持续反馈与迭代能力缺乏,这种静态推演已经愈发不适应高度复杂化和变动化的行政决策需求。相比之下,依托于深度学习和数据推演能力,生成式模型能够在最短时间内在海量数据中精准提取信息,针对以自然语言形式呈现的问题或提示,根据关键词进行回答,全程自主完成目标文本的生成工作。申言之,通过多源异构数据的融合解析与隐性关联挖掘,生成式模型可以构建一个“监测—评估—调适”的闭环系统,赋予行政决策以实时进化和动态更迭能力。以DeepSeek为例,凭借海量语料训练形成的语义理解能力,DeepSeek能够穿透政策文本的表层逻辑,系统揭示不同制度要素间的非线性关联。同时,通过跨模态知识蒸馏技术,DeepSeek还能将分散的行政数据转化为动态演进的决策图谱,运用因果推理识别政策效果的真实归因,使决策认知突破经验归纳的认知边界,形成“数据穿透—模式发现一规律提炼”的智能决策回路。

例如,湖南省长沙市通过将CS-DeepSeek植入城市智能安全管理领域,可以实时分析城市运行数据,有效提高政府的动态预警监测能力、动态风险分析能力和动态应急处置智能化水平。

另一方面,从局部优化到系统统筹的治理跃升。受限于局部领域的知识壁垒,经验驱动型决策很难破解跨域协同的系统性难题,这不仅表现为跨区域行政事务,同时也表现为跨领域行政事务。生成式模型通过全域知识关联与多目标平衡算法,能构建起系统的决策架构,有效打破部门间的信息孤岛,揭示政策协同的潜在空间。作为数据挖掘领域的一种重要工具,DeepSeek在一定程度上受到生物神经网络的启发,通过将信息数据输入神经网络中,DeepSeek可以自行开展数据运行、调整等一系列活动。在超高体量的数据“喂养”以及持续性的算法模型优化基础上,DeepSeek能够根据政府指令及时作出反馈,为政府决策提供全方位、实时性的数据和法规支持。例如,“DS都江堰”整合了水利行业相关的法律法规、政策文件、水利大百科全书、灌区地理数据、工程档案及各类专家知识库等各类多模态数据,极大释放了算法决策的智慧效能。可想而知,当决策系统既能深度解构单一领域的运行规律,又能精准把握跨域协同的涌现效应时,政策制定便得以跨越单维零和思维的取舍逻辑,在经济发展、生态保护与民生改善间寻找动态平衡点,将行政决策一举推向“全局洞察—系统设计一动态均衡”的新阶段。

生成式模型技术跃迁隐含算法风险机理

技术赋能与科技风险往往相生相随,DeepSeek等生成式模型在赋能数字政府建设的同时,也隐含着行政公共架构消解、归责链条断裂、程序正当侵蚀以及公民权利侵犯等新型风险。

(一)公共风险:生成式模型跃迁消解行政公共架构

1.生成式模型侵蚀政府价值公共性

数字政府建设是以公共利益为导向的,但在生成式模型语境下,算法研发、算法运营以及数据输入却隐含着公共导向偏离的风险。

首先,就算法研发而言,算法中立仅仅是一种幻想,在生成式模型算法研发过程中,算法研发人员对效率、精确性与可扩展性等技术理性的追求,往往优先于对公平性、包容性与公共性的价值理性考量。在算法黑箱的加持下,这些价值渗透往往隐匿于算法代码之下,这进一步增加了公共价值的异化风险。

其次,就算法运行而言,无论是ChatGPT抑或DeepSeek,都是由平台运营和维护的,在将其嵌入数字政府的过程中,市场逐利价值观与政府公共价值天然存在张力。受限于政府在技术和专业性上的不足,公共利益导向很可能会隐性让位于算法平台的价值判断。

再次,就算法数据输入而言,生成式模型内容生成往往建立在数据分析基础之上,数据的公正性、客观性、代表性将直接影响算法结果输出。作为物理世界多元价值观的映射,历史行政数据的结构性偏见、社会群体的数字化鸿沟以及信息采集的技术性盲区,会共同形塑算法认知的扭曲透镜。此前,ChatGPT就被证明存在种族歧视,即当输入“生成律师、高管等白领图片”的指令时,均以白种人为主,黄种人和黑种人寥寥无几,这充分反映了源自数据的结构性偏见。可想而知,一旦DeepSeek历史数据中存在错误或偏见,生成式模型的内容生成难免偏离公共价值观,并最终让数字政府从价值共同体异化为技术专利体系。

2.生成式模型侵蚀政府权力公共性

一方面,算法权力侵蚀行政民主正当性。基于民主原则,行政权的公共性在很大程度上植根于民主授权与民主监督的制度安排,这种事前和事后的民主制衡机制可以确保行政权始终在民主轨道内运行。但随着生成式模型的嵌入,算法对行政权的掌控并非经由民主授权,而是建立在数据建模与概率计算的数学法则之上,以至于既有的民主正当性论证悄然转移至缺乏民意基础的算法系统。同时,在算法黑箱影响下,算法权力的运行轨迹也让人捉摸不透,公众很难像以往那样借助民主选举、行政公开、民主参与等民主监督机制介入行政权的运行,既无从知晓DeepSeek的具体生成逻辑,更难以通过代议制渠道实施有效监督。公众的选举权、知情权和参与权在效率至上的技术叙事中褪色,行政权力的民主链条也被迫陷入中断。

另一方面,算法权力侵蚀行政权力边界。随着生成式模型的技术嵌入,行政自主性与算法依赖性的关系变得愈发紧张。表面上看,行政机关工作人员利用生成式模型提升行政效能,但殊不知,从数据导入到结果输出,占据主导权的从来都不是行政机关,而是隐匿于背后的算法。时下,不少地方政府将生成式模型嵌入自动化决策系统,利用DeepSeek自主作出行政处罚等行政行为;但当DeepSeek模型能够通过法律代码转译,自主生成具有规范效力的行政行为时,算法权力已然开始僭越固有的行政权力,从行政辅助者蜕变为实质决策者。当技术系统能够自主定义问题范畴、生成解决方案并验证执行效能时,政府权力便从公共意志的实践工具异化为技术理性的附庸,形成“技术系统制定规则、行政机关执行算法”的权力倒置格局。

(二)责任风险:生成式模型跃迁引发归责链条断裂

不同于此前权责明晰的行政责任秩序,随着生成式人工智能模型嵌入,责任追究的模糊挑战和避责风险大幅增加。

一方面,算法行政责任追究的主体模糊性。此前,行政责任追究更多遵循“政府一行政相对人”的框架,只要构成对相对人权益的侵犯,即可通过行政复议、行政诉讼机制对政府课以法律责任。但随着DeepSeek嵌入,传统固定的法律责任模式开始朝着“政府—DeepSeek—相对人”的三方框架演变。这种三方框架不同于传统行政协议,算法复杂性导致责任追究路径模糊,在应对权力转移与责任混同问题时更是捉襟见肘。在这一三元法律责任框架内,实际履职者已经悄然发生变化,不再是固有的政府机关工作人员,而是蜕变为更具隐匿性的生成式算法模型。申言之,生成式模型自主性使得“谁在决策”的命题失去意义,当一个行政决策由生成式模型算法作出,那么究竟是平台承担责任,还是政府承担责任,十分混沌,其结果很可能是既无法追溯至具体开发者,也难以归因于使用DeepSeek模型的行政机关。这种责任弥散化直接冲击了行政责任法制的伦理基础,使得传统“权责一致”原则在生成式模型语境下沦为虚设。

另一方面,算法行政责任的因果链条隐秘性。传统行政责任建立在“行为一结果—过错”的线性归责逻辑之上,核心是将行政行为、危害后果与责任承担相联系。然而,随着DeepSeek等生成式模型嵌入数字政府,算法实时性的深度学习与内容生成机制彻底瓦解了这一归责机制的因果根基。这种因果断裂体现为:其一,责任因果链条模糊。传统行政归责机制很大程度上依赖于事实链与结果链的关系,算法黑箱使得决策输出与输入数据间呈现出非连续、非线性的复杂关联。正如有学者强调,在算法黑箱的加持下,算法行政实质上以工具理性取代了责任理性,行政权“算法卸责化”已不可避免。其二,因果链条不可解释性。通常情况下,法律责任的因果关系不仅要确定,同时还要具备可解释性和还原可能性。但在生成式模型语境下,DeepSeek技术演进多遵循相关关系,每一次深度学习与内容生成,都会遮蔽因果关系的线性演化。当算法决策的“技术真相”无法转化为法律事实时,行政责任难免陷入认知论的死循环之中。

(三)程序风险:生成式模型跃迁架空程序正当原则

1.生成式模型跃迁架空说明理由制度

根据说明理由制度,行政机关作出任何行政行为,尤其是不利于行政相对人的行政行为,必须对背后的依据、事实、理由以及救济机制进行说明。典型如《行政处罚法》明确规定行政机关在作出行政处罚决定之前,应当告知当事人拟作出的行政处罚内容及事实、理由、依据。然而,随着DeepSeek等生成式模型嵌入行政决策,说明理由制度可能会面临不同程度的侵蚀。

一方面,算法黑箱的不可解释性。不同于行政公务员在行政执法过程中有着明确的主客观表现,算法以代码为外观,即便DeepSeek奉行算法开源,但技术架构仍存在难以穿透的结构性黑箱。其一是Transformer架构多头注意力机制通过高维空间映射实现语义关联,公众限于专业壁垒无法逆向解析算法黑箱。其二是DeepSeek训练数据的清洗规则、标注策略及采样偏差本身存在不透明性、不可逆性以及不可解释性,即便开源代码仍无法揭示数据预处理中的价值筛选过程,以至于最终因为算法黑箱陷入“失语”境地。

另一方面,深度学习的实时动态性。生成式模型的动态和非线性特性也在一定程度上导致算法难以解释。尽管DeepSeek以技术开源主义著称,但其深度学习和内容生成却建立在动态的数据处理之上,深度学习等算法机制的存在,使得人工智能可以在一定程度上自发学习和演进,其决策过程变得更加扑朔迷离。在这种情况下,如果要对这种动态深度学习能力说明理由,存在困难。

2.生成式模型跃迁架空陈述申辩制度

一方面,技术逻辑对程序逻辑的主导。基于深度学习与内容生成技术,DeepSeek模型能够瞬时生成逻辑自洽的论证文本,系统也可以自主推演法律事实的因果链,一旦这种“模式化”的自动处理技术深度嵌入行政自动化,个案的特殊性便会趋于虚无,将相对人的程序性表达权湮没于千篇一律的算法演绎之下。此时,即便赋予行政相对人陈述申辩制度,但其沟通和对话主体已不再是具备独立思考和价值判断能力的行政主体,而是蜕变为一个标准化、冰冷化的算法应答装置,这种对话看似程序正当,殊不知已陷于“伪对话界面”场景之下,很难触发实质性的程序考量。

另一方面,瞬时算法对申辩时间的侵蚀。陈述申辩权的法律根基源自行政相对人与政府的平等对话,但在生成式模型嵌入后,其瞬时性特质很难给陈述申辩权留有时间余地。由于缺乏双向互动和交涉的可能,相对人在寻求事前救济到事后纠正过程中的程序性权益极为脆弱。以自动化交通警察为例,拍照、定位和处罚几乎是同时作出,在此期间,行政相对人几乎没有陈述申辩的机会,只能采取事后救济。久而久之,当DeepSeek演化为行政决策的支配性力量,算法工具理性取代陈述申辩的程序理性,陈述申辩制度也会从平等对话的法治场域退化为技术权威的单向宣告。

(四)权利风险:生成式模型跃迁侵犯公民相关权利

1.算法歧视引发的平等权侵蚀

一般情况下,当本质相同的个体或群体受到区别对待,或本质不同的个体或群体受到同等对待时,便会引发平等权问题。在将生成式模型嵌入数字政府的过程,难免存在算法歧视现象,一旦对本质上相同的个体或群体进行差别待遇,或是对本质上不同的个体或群体进行同等待遇,就会侵犯公民的平等权。这种侵犯集中表现为以下方面:

一方面,算法代码歧视侵犯公民平等权。生成式模型算法化约的本质是将不特定行政相对人抽象为计算机可理解的二进制逻辑,当不同平等场景通过用户画像体系转变为“客观”的数据变量,形式平等与实质平等的分类标准也难免趋于消解。当DeepSeek算法将某些特定群体的数据输入与“典型”或“异常”建立关联,“法律面前人人平等”便会异化为统计学意义上的正态分布,部分群体的权利保障必然会被算法自动边缘化。

另一方面,数据偏差歧视侵犯公民平等权。在深度学习过程中,生成式模型在数据采集、标注、分析、处理等环节中难免将多元的价值判断嵌入其中,一旦历史偏见数据被转化为算法开发和训练的基础元素,相关算法决策便会放大不平等因素。更严峻的是,DeepSeek对于历史数据的依赖程度极强,在出现算法歧视之后,偏见不仅不会消失,反而会在迭代训练中被固化和放大,久而久之,数据歧视便将历史不公永久编码为技术系统的“自然法则”。

2.算法支配引发的隐私权侵蚀

一方面,生成式模型对隐私权的范式解构。传统隐私权为防止公权力对私权利的侵入性干预,利用物理空间和信息边界的二元划分,建立起相对完整的保护范式。但生成式模型利用数据的深度处理与行为轨迹建模,碎片化的个人信息集合为可预测的人格图谱,完全解构了公共领域与私人空间的物理界限。更为严重的是,在算法黑箱内,公民的多元信息被深度交织重组,个人信息被完全纳入“数字投影”之中,这进一步加剧了公民隐私权的暴露。此时,即便嵌入知情同意规则,DeepSeek全景式数据攫取模式也不免让公民隐私权沦为技术的牺牲品,致使最小化信息暴露原则消解。

另一方面,生成式模型对隐私权的内容消融。生成式模型的深度推理能力也对传统隐私保护的制度性防线构成挑战。生成式模型在对原有数据进行分析的基础上,能够将分散数据进行关联,从而分析预测未来的行为轨迹,这使得对隐私权的保护不仅局限于“现实侵害防御”,还扩展到了“未来风险预防”层面,知情同意原则被迫陷入“失语”境地。同时,DeepSeek数据处理的不可逆性也会形成新型枷锁,公民私人信息一旦进入算法系统,便会脱离数据权利掌控,永久性进入到DeepSeek数据循环和再生产的链条中。总之,当个人信息蜕变为生成式模型的数据资源,数据权主体便再也无法对自身数据进行实质性约束。

生成式模型技术跃迁背景下的组织法治调适

基于组织法治框架,今后必须以公共利益导向增强生成式模型的算法公共性,以权责统一原则增强生成式模型的技术责任性,以算法解释机制增强生成式模型的程序规范性,从而实现从算法风险到组织调适的法治跃迁。

(一)公共利益导向增强生成式模型的算法公共性

1.以合法化链理论强化生成式模型的民主公共性

合法化链理论强调将算法行政运行融入民主意志的完整链条之中。依照“合法化链理论”,行政机关作为执法机关,必须保证自身职权的合法性,在此过程中,至少需要通过功能与制度合法化、人事与组织合法化以及事务与内容合法化这三个维度追溯至代议机关。

首先,就功能与制度的合法化而言,行政机关嵌入生成式模型,必须在价值和目标上符合行政法治要求,生成式模型功能设定必须由代议机关通过组织法、程序法严格把关。无论是DeepSeek的人机互动、自动决策、知识传播还是信息共享,这些功能模块均需通过民主的审查验证。其次,就人事与组织合法化而言,每一位行政公务员的录用和辞退都应该通过选举和任命两种方式追溯至代议机关。在数字政府语境下,行政机关应避免全盘技术外包,始终保持对技术开发、应用和维护的组织控制力,这样,代议机关便可以经由对行政机关的人事和组织合法化,确保算法系统的演进方向始终服务于民主意志而非技术自主。再次,就事务与内容的合法化而言,立法是民主控制行政的最有效手段。遵循“法无授权即禁止”的制度逻辑,生成式模型应始终在人大的立法和授权框架内运行,确保每一个算法决策都能够追溯到法律规范,否则同级人大及其常委会有权进行实质性纠偏。

2.以算法伦理审查强化生成式模型的价值公共性

首先,就算法审查对象而言,政府应对生成式模型的运行代码、训练数据以及内容生成进行全面审查。其一,生成式模型运行代码。代码往往潜藏着算法研发人员的价值观,应着重审查生成式模型代码的价值优先级,将DeepSeek算法参数设置中潜在的偏见风险降到最低。其二,生成式模型训练数据。数据往往是多元价值观的载体,数据源的覆盖范围、代表权重分配以及真实客观性直接决定着后续价值生成,因此,必须对DeepSeek深度学习期间的数据加以重点关注,将偏离公共价值观的噪声数据进行有效剔除。其三,生成式模型内容生成。作为价值观的直接外化,生成式模型在政务知识宣传端、人机政务互动端、行政决策分析端等公共领域的内容生成必须接受公共利益的优先审查,从而有效降低技术理性对价值理性的不良扭曲。

其次,就审查程序而言,作为一种价值审查,公共伦理审查需要遵循算法全生命周期理念,将审查覆盖算法研发、数据收集以及内容生成在内的各个阶段,有效阻断生成式算法在政务应用中潜藏的公共价值异化风险。其中,就事前预审查而言,事前预审查应置于生成式模型嵌入数字政府之前。为了兼顾技术创新性与公共伦理性,可采用监管沙盒模式,允许生成式模型服务提供者进行实验性纠错。就事中审查而言,事中持续监测强调静态审查和动态审查相结合,可以引入实时价值偏离预警系统,对生成式模型输出进行连续语义分析。就事后审查而言,鉴于事后追责通常在实际应用效果之后,因此可以运用区块链技术,建立逆向审查机制,进而锁定公共价值失序的代码根源。

再次,就审查标准而言,伦理审查的标准需超越技术中立性,建构以公共理性为基底的复合评价框架。其一,公共伦理审查应当遵循正义标准。正义是社会秩序和公平的基石,生成式模型应接受更严格的审查,确保从数据输入到内容输出都符合正义的价值目标。其二,公共性伦理审查应遵循共同善标准。“共同善”将焦点从个人层面转移到社会维度,在强调社会公共利益的同时,也承认个人自主的独立意义。

(二)权责统一原则增强生成式模型的技术责任性

根据权责统一原理,基于生成式模型的算法行政理应辅之以健全的责任秩序,在此,可以将穿透式责任与分布式责任相结合,视情形进行算法责任追究。

1.以穿透式责任为主

作为大数据时代下的一种新型责任追究方式,穿透式责任强调通过技术加持穿透算法黑箱,突破传统责任认定的形式主义屏障,确立最具备实质控制能力的责任主体。相比于一般意义上因果责任断定,穿透式责任具有如下意义:一方面,有助于以技术规训技术。区别于传统简单因果判定的责任模式,穿透式责任主张通过植入算法审计、数据溯源等手段,有效实现“代码即规则”的技术解构,进而清晰揭示算法行政背后的人类意志介入节点。另一方面,有助于精准确定责任主体。根据技术控制力与利益关联度,穿透式责任能够构建多层责任识别体系,在行政机关承担首要责任的前提下,向算法开发者、数据供应商、第三方技术运维者等主体进行精准的责任传导。典型如当DeepSeek因训练数据偏见导致歧视性执法时,穿透式责任可追溯至数据清洗环节的技术服务商,避免因主张技术中立而产生的责任推诿。

尽管穿透式责任大有裨益,但其适用却存在严格的边界。其一,穿透式责任适用于简单的行政算法构造。穿透式责任的实现高度依赖技术可解释性,面对算法线性规则、有限变量与静态参数构建的个案决策,穿透式责任往往能够取得立竿见影的效果,但当算法高度复杂之时,穿透式责任则很难打破算法黑箱,即便借助局部可解释性工具,也难以准确还原算法行政的责任链条,进而导致责任穿透始终无法触及算法权责分配的核心结构。其二,穿透式责任需有先进的技术支撑。若将算法的可解释性视为抵御责任逃逸的“制度之盾”,那么穿透式责任则高度依赖兼具精准性与穿透性的“技术之矛”。这意味着在技术穿透力不足的背景下,很可能诱发责任分散效应,导致“人人有责却无人担责”的集体行动困境。

2.以分布式责任为辅

当算法行政高度复杂,分布式责任主张遵循责任均衡原理,让多元责任主体按比例、按环节进行责任承担,从而克服穿透式责任在算法黑箱面前的无力境地。

其一,去中心化的责任主体构建。算法行政行为的链条性决定了责任的分布性,诸如监管者责任、算法研发者责任、服务提供者责任、保险人责任等都可能构成分布式责任的一环。当算法行政责任从单一责任演化为多元责任之时,责任链条的去中心化也成为必然。因此,在横向维度,可依托“责任契约关系”实现政府与平台的责任分配,即通过行政协议在事先明确不同阶段的责任主体、责任内容和责任形式;在纵向维度,则应积极嵌入公众参与、第三方专业评估制度,在持续对话中形成责任分配的最优解。

其二,比例性的责任权重配置。在去中心化的责任结构下,虽然理论上各方主体都可能构成责任主体,但不同责任主体在责任承担比重和形式上并不能一概而论,而是比例性的演绎。依据“权力一能力”标准,“权力”通常指向特定主体在算法行政行为过程中的法定权能与事实支配力,典型如算法设计的话语权、数据输入的筛选权、决策输出的干预权等制度性权力,反之“能力”则代表着技术的可控性、风险的预见可能性以及损害防控的有效性。以DeepSeek为例,遵循“权力一能力”标准,应综合不同主体在算法行政中所扮演的角色,构建一个动态适配的责任配比体系。

其三,动态化的责任链条演绎。相比于穿透式责任的静态性,分布式责任主张遵循算法系统的动态进化场景,构建责任配置与算法运行同频共振的弹性责任体系。一个算法行政行为的作出,至少经过了算法研发、算法嵌入、数据收集、深度学习以及内容生成等几个环节,不同环节的主体往往扮演着不同的角色,相应的责任主体也应在政府、平台、第三方技术服务商之间实现动态配置。这就意味着需要构建一套“监测—反馈—调适”的动态责任体系,运用区块链技术对DeepSeek的算法全生命周期进行可验证记录,对每一个算法行政行为进行技术逆向工程,据此实现责任权重的实时记录和分配,进而保证“源头可溯、过程可查、效果可评、责任可追”。

(三)算法解释机制增强生成式模型的程序规范性

算法解释强调在算法与受众之间构筑一个交互界面,以一般人能够理解的标准,阐明算法在何种程度、何种情形下会影响自身的基本权益,也由此成为程序正当原则的重要支撑。

1.构建软硬兼施的算法可解释性标准

算法解释并非浑然一体,根据解释的专业性和正式性,可以将算法解释类型化为软解释和硬解释。前者意在阐明生成式模型的宏观算法运行机理,后者则旨在对生成式模型的个案因果关系进行阐明。不同的场景下,算法解释的软硬程度也差别迥异。

一方面,硬解释主要面向生成式模型的核心算法说明,要求向特定主体系统展开生成式模型的算法运行机理。以DeepSeek为例,硬解释需要阐明生成式模型的Transformer架构、本地存储机制、算法开源机理、内容生成原理等议题。从这一意义上讲,硬解释在一定程度上超越了生成式模型的个案场景,具有更强的专业性和普适性。但由于生成式模型的不可逆性,硬解释通常只能进行宏观理论阐释,并无法清晰展现出生成式模型的个案运行情况。同时,这种过高的专业性也或多或少面临算法鸿沟隐患,稍有不慎就会沦为普通公众的理解禁区。

另一方面,软解释指向个案输入与输出的因果叙事,主张根据期待可能性原理,将复杂的算法叙事转化为“理性人可预见性”标准,以符合公众认知惯性的方式呈现生成式模型的决策依据。申言之,软解释无需专业性的算法术语,允许解释者通过生动、形象的解说方式,向不具备专业知识和能力的相对人进行个性化解释和说明。从这一意义上讲,软解释更加适配DeepSeek嵌入后的说明理由制度,有助于重建公民对算法行政的合理预期。

2.事前算法解释与事后算法解释结合

依照正当程序原则,无论是说明理由制度还是陈述申辩制度,均是在行政行为行使“过程中”进行的。但算法解释则不同,由于生成式模型的“瞬时性”特质,无论是算法平台抑或政府,都很难在算法行政行为过程中履行解释义务,对应的算法解释只能在算法行政行为作出之前或者之后进行。

一方面,事前算法解释义务。作为一种预防性解释说明机制,算法事前解释核心在于构建一套前置性的透明机制,明确政府在将生成式模型技术部署前,面向不特定行政相对人围绕算法运行机理、训练数据透明性、算法决策合法性等要素进行系统性解释,从而证明技术工具与行政目标的实质性关联。当前,欧盟和加拿大是事前算法解释的典型代表。前者确立了“高风险系统事前透明度规则”,要求公共机构在部署AI系统前提交技术文档解释模型的社会影响;后者则主张通过算法影响评估工具(AIA)强制行政机关量化披露系统偏差率与权利敏感度。对此,我国应构建“法律—标准一技术”三位一体框架,即在立法层面增设算法解释专章,明确重大行政决策场景的强制解释范围;在标准层面应遵循“硬解释”原理,由标准化组织制定可解释性分级指引,区分监督学习与生成式模型的不同披露要求;在技术层面则需研发符合国家密码标准的解释工具链,实现敏感参数脱敏与决策路径可视化的平衡。

另一方面,事后算法解释义务。事后算法解释义务聚焦于算法决策的个案救济功能,强调通过回溯性说明机制重建公民对不利决定的理解可能性与异议能力。如果说事前算法解释是算法行政行为作出之前的笼统解释,那么事后算法解释则是行政行为作出之后的个案性说明。基于事后解释,如果算法行政行为对行政相对人的权益造成侵害,那么理应立足于具体算法决策场景,按照算法解释“软解释”标准进行系统说明。需要注意的是,基于程序的延展性,行政相对人在事后解释过程中仍然享有陈述申辩权,允许相对人基于DeepSeek基准模型对比结果、数据分布偏差检测报告等进行合法抗辩,从而让算法解释贯穿算法行政决策全程。

生成式模型技术跃迁背景下的权利法治调适

鉴于生成式模型技术跃迁对公民平等权以及隐私权的侵犯,应将法律保留原则与比例原则相结合,构建一个形式与实质兼备的权利法治调适框架。

(一)法律保留原则作为生成式模型的形式审查标准

传统法律保留原则多用于立法机关和行政机关之间,强调对于涉及基本权利等基本的立法议题,立法者不能授权行政机关立法,而应该亲自就相关重要事项进行规定。同时,对于一些非基本立法议题,即便要进行立法授权,也应遵循授权明确性原则。大数据时代下,将DeepSeek嵌入数字政府决策,虽不涉及立法机关与行政机关之间的权力让渡,却存在行政机关与DeepSeek的权力转移,因此,彼此之间的权责界限在一定程度上仍然可以借助“法律保留”原则思路加以廓清。

1.形式意义上行政权的核心领域

基于功能主义法律保留,立法者对于国家权力的配置必须与国家的任务目标相契合,尤其要综合国家机关的组织、人员和程序进行全面考量,从而将之转交给最合适的机关。宪法根据国家机关组织结构和职能特点,事先划定了不同国家机关的职权范围,这些职权的“典型任务”绝不允许被其他机关或者工具随意剥夺。在此,行政权的核心领域就是对自身权力行使的话语权、主导权和控制权。例如,当前德国《联邦行政程序法》修正案已引入“自动化行政行为的特别程序”,要求关键算法决策节点必须保留人工介入端口。从这一意义上讲,法律保留确定了公共决策适用算法时“原则禁止,例外允许”的关系模式。因此,算法行政只能在有限范围内介入行政权的行使,其适用通常限于细节性和技术性事项;对于涉及公共利益处置、公民基本权利限制等事项的权力处分,则属于传统行政权的“核心领域”。同理,在DeepSeek与行政权的互动中,必须确立“法律授权为体、技术工具为用”的基本原则,通过动态授权机制综合考量DeepSeek的功能边界,从而将算法行政权的行使纳入法律保留的框架之下。

2.实质意义上基本权利的核心领域

基于“本质内容保留”,基本权利核心领域具有绝对保护属性,国家不得以任何形式干预,个人亦不可自愿放弃。因此,在数字政府建设中,既要从形式意义上防止生成式模型对行政权的不当僭越,更要从实质意义上禁止行政机关通过生成式模型对公民基本权利进行的实质性侵害。其一,明确基本权利核心领域的范围。基本权利核心领域并非静态权利清单,而是动态的价值辐射体系。从宏观层面讲,基本权利核心领域以“人的尊严”为价值原点,不仅包括生命权、人身权等古典自由权,亦包括数字时代衍生的新型数字权利。从微观层面上讲,每一项基本权利都隐含着自身特有的核心领域,同时在不同个案中,基本权利本质内容也处于动态变化之中,一旦国家权力介入过深,即构成对尊严的实质性威胁。这就要求DeepSeek等生成式模型不得消解基本权利的本质内容,更不得侵入个体人格的自主发展空间。其二,坚持人类最终决策权。对于涉及公民基本权利核心领域的治理场景,立法机关应通过特别授权明确禁止任何形式的算法自动化决策,将此类事项永久排除于技术工具的适用范畴之外。明确算法行政仅能承担事实信息整理、决策方案模拟等技术中性任务,严禁代替人类进行价值权衡与权利处分。考虑到算法行政对于基本权利的伤害往往具有不可逆性,因此必须严格遵循“人类决策者最终控制原则”。

3.坚持算法行政介入的授权明确性

基于法律保留原则,算法行政必须遵循“授权明确性原则”,明确生成模型参与行政决策的目标、时限、形式、手段及程序等要素。同时,这种明确性并非一成不变,而是处于动态调整之中,越是对于重要性事项的授权,对应的明确性标准也就越高。在此,德国联邦宪法法院为了减少审查恣意而尊重立法者的形成空间,曾将审查密度依次类型化为明显性审查、可支持性审查和强烈内容审查,三者在审查密度上逐级加强,同时也暗示着立法者的立法形成空间逐级减少。当然,具体采用何种审查密度,应该在审查过程中根据基本权利的侵害强度进行个案衡量,如果DeepSeek算法行政行为严重侵犯公民基本权利,那么就必须采用强烈内容审查这一标准,授权情形必须十分明确合理、清晰可行,从而最大程度保障公民的基本权利。

(二)比例原则作为生成式模型的实质审查标准

为保障行政相对人的主体性,避免算法行政行为过度限制公民基本权利,理应将其置于比例原则框架内,确保算法行政行为对公民基本权利的限制始终处于宪法所认可的状态。

首先,就目标正当性而言,算法行政对于公民基本权利的限制,在目标上必须被宪法所认可。通常情况下,提升行政效能,优化行政服务体系往往是算法行政的初衷所在。此外,目的正当性还意味着算法行政目标必须适配不同时期数字政府的战略选择,而不得恣意进行目标划定。

其次,就适合性原则而言,要求算法行政行为必须有助于实现所要追求的公共目标。言外之意,在算法行政领域下,将DeepSeek等生成式模型嵌入数字政府必须有助于实现数据共享、高效便民、科学决策、安全治理等公共价值目标。当然,适合性原则本身也存在一定边界,原因在于生成式模型本质上是辅助性工具,而并非直接价值判断载体,否则国家在很多情况下将可以摆脱宪法约束,以DeepSeek“技术中立性”为由随意扩张算法权力边界,侵害公民基本权利。

再次,就必要性原则而言,要求当存在若干同样能够达到目标的手段可供选择时,必须选择对基本权利限制强度最小的手段。在数字政府建设过程中,除了生成式模型嵌入这一手段之外,还可以寻找替代性手段,如采用轻量化数据分析工具或人工复核主导的混合决策模式,以降低生成式模型算法黑箱对公民基本权利的不确定性影响。更深层次约束在于国家任务必要性的动态评估,即行政机关需定期审查生成式模型的任务存续正当性,因为在一些情况下,借助市场反而能够更出色地完成公共任务,这就避免了因算法行政介入而侵害公民基本权利的风险,因此更具优越性。

最后,就狭义比例原则而言,算法行政所追求的利益与其损害的利益必须成比例,不能显失均衡。此处需要将追求的利益与损害的利益进行理性权衡,算法行政尤其不得为了实现特定公共利益而过度侵害公民的基本权利。这意味着必须深入剖析DeepSeek等生成式模型介入后的利益格局。以税务机关算法行政为例,一般情况下,DeepSeek介入不仅涉及国家和受惠主体,还包括因此而增加负担的数字弱势群体,必须把国家、受惠主体、受损主体以及其他受影响主体的利益均纳入考量范畴,进行多元利益的层次均衡审查。理想的方案是在对某类主体给予算法便利时,适当给予其他受数字弱势群体主体以一定程度的算法帮扶,纠正生成式模型介入后的利益失衡格局。

结语

数字政府建设往往伴随着生成式模型的技术迭代,DeepSeek的横空出世标志着我国数字政府建设进入了一个新时期。但从本质上讲,DeepSeek并未超越生成式模型的固有缺陷,唯有将技术赋能与风险规制融入法治框架,才能让“生成式模型嵌入数字政府建设”更具延展性、预期性和解释性。生成式模型技术跃迁推动数字政府建设实现从机械演绎到模态生成的场景拓展、从科层管理到算法协同的模式重构、从单向输出到智能交互的形态嬗变以及从经验驱动到数据赋能的范式跃迁。与此同时,生成式模型介入也隐含着行政公共架构消解、归责链条断裂、程序正当侵蚀以及公民权利侵犯等新型风险。为了将数字政府建设融入法治轨道,今后必须立足于组织法治和权利法治对生成式模型进行系统规制。总之,关于生成式模型的理论探讨应持续进行,无论技术发生何种迭代,深度学习、人机交互、内容生成始终是其最为核心的算法架构,唯有剖开DeepSeek的技术变迁表象,将视线聚焦于更为本质的算法权力重塑,才能揭示技术迭代背后恒定的治理范式转型规律,将数字政府建设融入法治轨道之中。

-向上滑动,查看完整目录-

《北方法学》2025年第5期目录

【专题一:数字法学研究】

1.论生成式人工智能服务提供者的过错推定责任

张新宝、卞龙

2.全国一体化数据市场建设背景下数据产权登记的程序构造

许多奇、盛宏伟

3.生成式模型嵌入数字政府的技术跃迁与法治调适

周智博

4.政府数据开放的利益衡量及其逻辑展开

王真平

5.数字检察赋能行政公益诉讼的价值、困境与出路

刘少军、鲍家琴

【专题二:刑事法学专论】

6.“蹭吸”型代购毒品行为的类型划分与司法认定

李立丰、王一帆

7.区分互殴与防卫的归责之解

蔡燊

【专题三:法学前沿】

8.情谊行为致害责任的教义学构造

冯德淦

9.心理学视域下商标功能的理论阐释与制度调适

姚鹤徽

10.涉外司法能动性的运行机理与制度应对

何志鹏、于方唯

《北方法学》杂志是经国家新闻出版总署批准,面向国内外公开出版发行的专业法学学术期刊,双月刊,逢单月15日出版。《北方法学》由黑龙江大学主管主办,禀持开放办刊之理念,邀请国内外著名法学专家及资深教授组成编委会,打造国内一流法学期刊。国家新闻出版总署批复《北方法学》的办刊宗旨为:“繁荣法学研究,服务法制建设,加强学术交流,培养法律人才”。《北方法学》杂志目前设置的主要栏目有:理论法前沿、部门法专论、专题研究、外国法研究、中外法史研究、实践论坛、名家讲坛、博士生论坛、学术综述、译评文丛、学术问题争鸣、比较法论坛等。

点击进入下方小程序

获取专属解决方案~

责任编辑 | 郭晴晴

审核人员 | 张文硕 王晓慧

本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息网 incentive-icons
北大法律信息网
法律综合性网站
10917文章数 17464关注度
往期回顾 全部

专题推荐

洞天福地 花海毕节 山水馈赠里的“诗与远方

无障碍浏览 进入关怀版