原创 赵精武 行政法学研究编辑部
![]()
“刷脸”应用场景下个人信息保护影响评估的适用路径
行政法学研究编辑部
赵精武(北京航空航天大学法学院副教授)
⚖️
|目次
一、问题的提出
二、人脸识别技术治理的核心目标:技术可信
三、个人信息保护影响评估的理论基础与制度溯源
四、个人信息保护影响评估机制在“刷脸”应用场景中的适用方式
五、结语
|摘要
《个人信息保护法》《人脸识别技术应用安全管理办法》等法律法规详细规定了人脸识别技术服务提供者的法定义务,但滥用、误用“刷脸”技术的现象仍时有发生。“刷脸”技术治理的重心正在从“制定专门立法”逐渐转向“准确实施配套制度”。其中,个人信息保护影响评估作为此类技术治理的重要基础制度之一,在评估方式、评估结果公开、与其他风险评估机制关系等方面存在实施标准不明确等问题。基于技术信任论的考量,个人信息保护影响评估的内在逻辑应当是通过事前的信息安全风险评估和权益影响程度评估,将现行立法中敏感个人信息保护规则转化为评估标准和评估事项,督促法定义务的充分履行。该项制度的核心目的并不是强制义务主体开展一般意义上的风险评估,而是通过灵活的评估流程向社会公众呈现技术应用的风险状况和权益影响方式,进而推动社会公众对技术应用的安全可靠性形成合理确信,实现促进技术应用和保障技术安全的双重治理目标。
|关键词
人脸识别;个人信息保护影响评估;风险评估
⚖️
|正文
一、问题的提出
人脸识别技术应用的安全性和必要性持续受到质疑,尤其在2021年“3·15晚会”上曝光“科勒卫浴等一众企业擅自安装抓取人脸识别设备”事件之后,人脸信息安全成为公众普遍关注的社会问题。2021年7月,最高人民法院发布了《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》(以下简称《人脸识别司法解释》)。2025年3月,国家互联网信息办公室发布《人脸识别技术应用安全管理办法》(以下简称《刷脸安全办法》)。这些立法活动均是围绕人脸信息的安全保护问题展开,《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)更是规定了一系列风险评估机制,如第55、56条规定的个人信息保护影响评估机制,其适用条件便是“处理敏感个人信息”。
但是,个人信息保护影响评估机制并未能发挥预期的风险预防作用。现行立法未能针对评估结果是否公开、评估是否应当采用全面模式、评估流程是否应当标准化等内容作出明确规定。在实践中,鲜有物业、企业、写字楼管理者等个人信息处理者采取“适宜的形式对外公开”。例如,在2025年9月,上海某科技有限公司在运营自动售货机时因未建立个人信息保护影响评估制度等原因而被属地网信办予以警告处罚;[1]某主营业务为对外提供人工智能模型训练基础数据的科技有限公司因在处理人脸等生物识别类敏感个人信息前,未按《个人信息保护法》有关规定进行个人信息保护影响评估而被责令整改。[2]该类制度的虚置化问题,不能简单归咎于法律实施不到位等原因,其根源在于制度的理论基础与适用方式未能得到清晰界定。该制度往往被视为一种流程性的安全风险评估机制,部分义务主体怠于或敷衍履行此类义务。个人信息“因其负载人格利益而明显包含私人性成分”[3],因此,有必要阐明个人信息保护影响评估的制度演进、理论基础和功能定位,进而明确该类评估在人脸识别技术治理领域的适用方式,确保相应的评估活动能够有效预防和控制人脸信息安全风险。
二、人脸识别技术治理的核心目标:技术可信
在探讨人脸识别技术治理中个人信息保护影响评估的理论基础、功能定位以及具体的实施方式之前,首先需要理清的是人脸识别技术治理的目标和需求。因为倘若只是笼统地解释为“人脸识别技术治理需要确保技术应用不会侵害自然人的个人权益”,个人信息保护影响评估机制的制度功能就会被泛化为个体权益的事前保护,进而弱化个人信息保护影响评估与其他安全风险评估机制之间的差异性。
(一)人脸识别技术治理的研究分歧
国内有关人脸识别技术治理的研究已经较为充分,核心的研究主张主要包括“个人信息保护论”“新兴技术风险治理论”“新旧风险融合治理论”三类。“个人信息保护论”主张人脸识别技术治理的核心事项依然是个人信息保护,[4]因为所有的技术使用争议本质上都是围绕人脸信息的收集和处理活动展开。“新兴技术风险治理论”则主张人脸识别技术安全风险属于一种复杂交叉的新兴风险,技术滥用所产生的损害后果不仅仅是个体权益的减损,还有可能导致科技伦理颠覆、危害国家安全等问题。此外,技术应用场景的多元化也使得人脸识别技术应用风险呈现“风险形式的非预期性、风险影响的系统性和风险演化的动态性”等特点,[5]这也是需要单独规制人脸识别技术的核心原因。“新旧风险融合治理论”则融合了前两种观点,主张人脸识别技术安全风险是由已有风险和新兴风险共同构成的,如部分学者认为主要风险是由技术缺陷引发的风险和信息处理合法性风险构成。[6]相应的治理模式更应当表现为一种综合性的治理机制,既囊括个人信息保护规则,也涵盖面向识别误差、数据算法歧视等风险的特别治理规则。[7]然而,这三种研究主张也存在各自的局限性:“个人信息保护论”在未能阐明个人信息保护特殊性的情况下,容易将治理结果引导至“个人信息保护规则在特殊场景下的法律适用”,弱化人脸识别专门立法的必要性。“新兴技术风险治理论”所提及的“新兴风险”无法解释人脸识别技术风险与其他已知技术安全风险究竟存在何种本质差异。至于“新旧风险融合治理论”,本质上还是对两种主张所对应的技术安全风险分别设置相应的治理机制。
国外的学理研究与司法实践则更加侧重人脸识别技术应用是否存在滥用公权力、侵犯公民个人隐私权等问题。如在英国的“爱德华·布里奇斯诉南威尔士警察案 (Ed Bridges v.CCSWP) ”一案中,就警察局在公共场所使用自动面部识别技术这一事实,上诉法院将其定性为侵犯了《欧洲人权公约》第8条规定的隐私权。值得注意的是,上诉法院还认为,警察局依据英国《2018年数据保护法》第64条所提供的数据保护影响评估文件未能正确评估自动面部识别技术给数据主体权利、自由带来的实际风险。[8]该案法院关注的重心实际上是身份信息与行为信息之间的关联匹配事实,这会使得个别警察权力过大,乃至直接影响被识别个体的其他权益。国外学者普遍认为, “所谓的利用人脸识别技术精准打击犯罪活动”不过是打着增强社会公共安全的幌子暗中“监视”数据主体,基于人脸识别技术应用的监控系统一旦在社会中普及、蔓延,被用于社会管控,这不仅将导致人脸被用于生成可货币化的数据,隐私的社会价值也会被剥夺。[9]国内外研究重心的差异性实际上是各自研究语境所导致的:国内研究同样有提及“过度监控”“隐私权侵害”等技术安全风险,《刷脸安全办法》侧重从个人信息处理活动应当遵从最小必要原则予以表述,近期发布的《公共安全视频图像信息系统管理条例》则是从公共安全视频系统规范安装和管理的角度预防“过度监控”等问题。
然而,国内外现有研究始终对“人脸识别技术治理的特殊性”这一根本问题存有分歧。国外研究是以“过度监控”作为研究起点,所以研究结论并不会倾向于专门立法,而是在宪法、行政法层面强调约束和限制公共机构使用人脸识别技术。国内的三种研究主张大多未能正面阐明人脸识别技术单独治理的必要性和特殊性。一方面,新兴风险、融合风险等风险类型论断或是混淆了人脸识别技术风险与其他关联应用风险,又或是将人脸识别技术应用所存在的数据安全风险、网络安全风险与技术应用安全风险混同,[10]未能阐明技术应用风险治理的独特性;另一方面,个人信息风险的相关论断又未能进一步解释人脸识别技术治理规则与《个人信息保护法》的内在逻辑关系,使得“专门立法”这一结论与《人脸识别司法解释》存在重叠——二者都适用于解释《个人信息保护法》如何在人脸识别技术中治理实践。针对“人脸识别技术治理的特殊性”这一问题,还是需要置于技术应用实践场景中予以探讨:其一,过度监控风险并不完全属于人脸识别技术的“专有风险”,在公共场所安装摄像头同样存在类似的风险;其二,隐私泄露、窥视个人行踪、技术应用不透明等风险则属于典型的个人信息安全风险;其三,技术缺陷风险、识别错误风险等风险类型属于产品责任的风险问题。综合来看,人脸识别技术应用的核心风险依然是个人信息保护风险,[11]其治理的特殊性在于,绝大部分的技术风险属于人脸信息安全风险的新型表现形态或者延伸产生的次生性风险。
(二)人脸识别技术治理目标的实现路径:个人信息保护影响评估
客观而言,《个人信息保护法》《人脸识别司法解释》《公共安全视频图像信息系统管理条例》等法律法规已经较为充分地规定了人脸信息的安全保护要求,与其将“人脸识别安全监管专门立法”论证为“全新的特别立法”,倒不如论证为“现行立法的配套实施制度”。这也能够合理解释《刷脸安全办法》与《个人信息保护法》“内容类似,但相对独立”的逻辑关系。具体而言,这种督促机制应当实现“充分履行义务”和“高效履行义务”两类督促效果。
一方面,督促义务主体从形式化履行义务转变为充分履行义务,进而确保技术安全。《个人信息保护法》所规定的个人信息保护义务并不是“单一化要求”,而是允许义务主体结合自身业务合规能力和经济能力等因素,在合理范围内选择最大化保护个人信息的义务履行方式。但是,义务履行标准的动态性与义务简化有所区别,对于仅以人脸识别技术作为身份核验的个人信息处理者而言,其义务履行方式不能以“告知自然人收集人脸信息是为了身份核验”或者“信息轰炸式的列举相关信息由自然人自行查阅”等为限,仍然需要满足“充分履行”之要求。“充分履行”意味着“刷脸”应用的信息处理过程和应用基本情况应当充分告知自然人,满足“过程公开”与“结果公开”的治理目标。同时,这种“充分履行”也意味着义务主体需要对技术应用的必要性进行评估和判断,不仅要确保技术应用方式属于“合理应用”,还需要贴合个体安全风险,充分采取针对性保障措施预防安全风险,亦即达成“区分性治理”效果。
另一方面,督促义务主体结合个案情况落实“高效履行义务”,进而促进技术应用。“当今数字经济时代消费者普遍存在‘隐私悖论’心理,既希望通过分享个人信息获得个性化便利,又厌恶信息分享和泄露带来的风险。”[12]规范人脸识别技术应用是为了更好地促进该项技术普及应用,故而督促机制的实际效果不应当是“加重义务”,而应当是“合理地精简义务”。在实践中,随着应用场景的普及化,义务主体范围也会有所扩张,这也导致义务履行能力的差异化。法律终究不能强人所难,故而需要通过督促机制指引业务合规重心,精简和优化目的重复的义务履行环节。例如,商场、健身房、小区物业等义务主体的业务合规能力显然要弱于常见的互联网巨头,故而督促机制应当引导这些义务主体明确自身面临的主要安全风险,尤其是在采购第三方人脸识别信息服务时,个人信息保护义务的履行方式主要是以合同条款、第三方资质的审查为限。这种“高效履行义务”也是为了避免将“过程公开”和“结果公开”的治理目标泛化为漫无目的的信息公开和披露,额外增加义务负担。并且,“高效履行义务”亦是“区分性治理”这一治理目标的直观体现,即基于对各类法律主体义务履行能力的区分,合理调整义务履行的具体要求。
遍览《个人信息保护法》的各类具体制度,仅有个人信息保护影响评估机制能够满足这种督促机制的建构要求。个人信息保护影响评估不仅能够通过详细的评估事项和评估要求督促义务主体在评估过程中充分确保个人信息安全,还能够通过评估事项的灵活调整,使各类义务主体结合个体情况落实“高效履行义务”。
(三)个人信息保护影响评估机制的适用困境
《个人信息保护法》第55、56条规定了个人信息保护影响评估的适用情形和具体评估事项,《刷脸安全办法》第9条则列明了涉及人脸识别技术的具体评估事项,并明确一旦人脸信息的处理目的、处理方式发生变化,或者发生重大安全事件,则需要重新进行个人信息保护影响评估。如此看来,现行立法在文本层面似乎已对人脸识别技术应用场景中个人信息保护影响评估机制的适用作出了较为明确的规定,然而在具体实施过程中,该机制仍面临适用标准模糊等问题。
其一,评估事项具体范围不明确。现行立法虽然明确了“处理目的、处理方式等是否合法、正当、必要”等事项应当列入强制评估范畴,但这些事项的表述较为笼统。例如,针对“保护措施是否合法、有效并与风险程度相适应”这一评估事项,存在“有效性”认定标准模糊、“相适应”程度不明确等问题。鉴于任何保护措施都不可能彻底消除潜在的个人信息安全风险,义务主体究竟应当如何确保保护措施符合法定的“有效性”标准,目前尚未明确;同时,风险程度处于动态变化状态,这里的“保护措施与风险程度相适应”是应当达到“同步发展”还是“保护措施能够应对绝大多数常见风险”亦需明确。倘若以“同步发展”为要求,那么对于中小微企业而言,在自身技术能力有限的情况下,这类评估事项的评估结果有可能难以满足法定要求,从而限制中小微企业对人脸识别技术的应用。更重要的是,倘若仅以《个人信息保护法》和《刷脸安全办法》所列举的评估事项为限,允许义务主体不评估其他非强制性事项,又会导致该评估机制与一般意义上的个人信息保护业务合规活动并无实质性差别。因为《刷脸安全办法》第9条第(一)(三)(四)类事项与《个人信息保护法》第5条、第9条、第28条、第30条等个人信息保护规则基本一致,无法凸显个人信息保护影响评估机制自身的独立性与特殊性,进而还会产生另一个问题,即评估事项的范围选择应当是以全面评估人脸识别技术应用各类事项为主,还是以重点评估核心事项为主。
其二,评估结果的披露方式不明确。现行立法并未明确提及评估结果是否应当予以公开,倘若不必公开,那么个人信息保护影响评估机制将转变为一项内部安全管理制度,社会公众无从得知义务主体是否能够有效确保人脸识别技术应用的安全可靠,监管机构也难以通过外部行为判断义务主体是否充分履行了现行立法有关个人信息保护影响评估的法定义务。倘若应当公开,那么从实践情况来看,鲜有义务主体主动向社会公众公开相应的评估事项和评估结果。更为棘手的是,如果认定应当公开评估结果,公开的具体范围和方式亦无法确定。过于详细的评估结果公开不仅增加了企业实际的业务合规成本,而且使社会公众难以在繁杂的公开信息中找寻自己关注且能够理解的核心内容;过于简略的评估结果公开(如仅公布是否评估、评估结果是否良好等)又无法保障企业充分评估了人脸信息处理活动存在的各类风险并采取了相应的保护措施。
其三,评估标准的模式选择不明确。任何形式的评估机制都应当设置一个较为明确的评估标准,但现行法显然囿于法律文本简洁性等固有要求从而无法对此予以回应。一般而言,个人信息保护影响评估作为一项法定义务,各类法律主体的义务履行标准理应一致。然而,企业的规模大小、技术能力、资金状况以及业务合规能力等要素均会影响实际的评估活动。完全一致的评估标准对于中小微企业或者非互联网行业的企业而言,无疑会导致过重的义务负担,这也意味着该项机制在适用过程中需要解决“不同的评估标准实现相同的制度目标”这一实践难题。
需要特别说明的是,国家标准《信息安全技术 个人信息安全影响评估指南》(GB-T 39335-2020)确实规定了评估实施的具体流程,例如,“5.5.2个人权益影响分析过程”将评估活动拆分成对个人信息敏感程度、个人信息处理活动特点分析、个人信息处理活动问题分析以及影响程度分析四个阶段;“5.9制定报告发布策略”明确企业可以在已有评估报告基础上予以简化,但内容至少需要包括“合规性分析的概况”等在内的八类事项。但问题在于,该标准指向的是“个人信息安全影响评估”,与《个人信息保护法》规定的“个人信息保护影响评估”究竟是否同属一个机制尚且存疑。并且,该标准对“个人信息安全影响评估”的定义更侧重“判断其对个人信息主体合法权益造成损害的各种风险”和“评估用于保护个人信息主体的各项措施有效性”,这与“个人信息保护影响评估机制”的制度内涵也存在一定差别。为此,解决这些适用困境需要重新厘清个人信息保护影响评估的功能定位和理论基础,进而推导出在特定的理论框架下如何明确个人信息保护影响评估机制在人脸识别技术应用场景中的适用方式。
三、个人信息保护影响评估的理论基础与制度溯源
在明确个人信息保护影响评估与人脸识别技术治理目标的逻辑关系后,则需要进一步明确个人信息保护影响评估的理论基础,这关系到该项制度在一般情形下对“刷脸”这一特定情形的具体制度内容设置,同时也关系到在法律适用中如何解释个人信息保护影响评估机制与其他安全风险评估机制的逻辑关系。
(一)个人信息保护影响评估的理论基础:技术信任论
制度溯源的目的是准确理解制度设置的最初目的和发展方向,个人信息保护影响评估机制是经由“信息系统安全风险评估”“网络安全等级保护”等制度发展而来,其正当性基础必然也是以风险预防和管控为核心。当然,倘若仅仅停留于笼统层面的风险治理、风险评估,并不能实际解决个人信息保护影响评估具体内容的建构问题,故而还需要进一步阐明个人信息保护影响评估建构所依据的具体理论,避免将制度问题束缚于脱离实践层面的“风险概念”论证。现有研究多是从风险治理的角度论证个人信息保护影响评估的理论基础,最常见的观点便是认为个人信息保护遵循的是“基于风险的方法”,其理论价值在于“根据风险水平差异化调整个人信息保护强度”,而这种调整则“有赖于科学合理的影响评估”。[13]个人信息保护影响评估作为典型的风险评估认定机制,制度优化路径应当更加侧重对权益实际影响的考察。也有学者试图从其他视角论证相应个人信息保护影响评估的理论基础,如主张该项制度与元治理理论在“国家主导”“社会力量调配”两个方面相互契合,理应按照元治理的治理逻辑实现“内外监督机制”“评估透明度”和“周期性评估”等方面的制度优化。[14]
无论是“基于风险的方法”,还是元治理理论等其他理论学说,本质上都承认个人信息保护影响评估属于一种特殊的风险评估机制,只不过对于风险评估的内在逻辑存有分歧。“基于风险的方法”实质上是将个人信息保护影响评估视为一般信息安全风险评估在个人信息领域的“特殊适用”,元治理理论等学说则是将个人信息保护影响评估视为新型独立的风险评估机制。从《个人信息保护法》第55、56条的内容来看,个人信息保护影响评估的适用情形、评估事项具有其特殊性,并且该项制度所需要实现的督促义务履行功能也决定了该项技术有别于“个人信息安全风险评估”:一方面,个人信息保护影响评估是一种“权益影响评估”,评估事项除了有关个人信息处理活动的合法性判断外,还包括“对个人权益的影响及安全风险”。如果仅将该项制度视为安全风险评估的一种类型,则会无法解释“安全风险”与“权益影响”之间的关系。倘若将“权益影响”视为安全的表现形式,那么按照此种逻辑,又会推导出个人信息保护合规审计等具体制度均属于个人信息安全风险评估的不同形式,《个人信息保护法》也成了“个人信息安全风险评估法”。另一方面,个人信息保护影响评估是一种“重点保护事项的评估”。为了避免义务主体陷入“频繁评估”“重复评估”的困局,《个人信息保护法》第55条也将适用个人信息保护影响评估的情形限定为特殊情形,其目的是督促义务主体重点审查“对个人权益有重大影响”的个人信息处理活动是否符合现行立法规定。
由此可见,个人信息保护影响评估机制的本质是针对“特定安全风险”进行事前评估,既不同于传统意义上的纯粹风险评估,侧重具体的风险类型识别,[15]也不同于常见的合规审计、合规审查等,偏向合规检验,[16]而是根据“特定安全风险”的敏感程度和重要程度进行针对性的事前评估和核查。结合该项制度的督促目标来看,其理论基础并不仅仅是一种特殊的风险评估机制,更是一种技术信任增强机制,核心是增强技术应用的透明度。也有学者将该治理理论表述为“社会建构论”,强调人脸识别技术治理应当将消除社会公众与技术之间的信任危机作为一般立场。[17]国外学者针对当下数据自由流动的产业发展趋势,提出了“隐私即信任”的理论,即“基于信任的隐私是一种社会结构,它建立在社会共享者之间、个人与互联网之间、在线和离线互动的人群信任之间”[18]。这种理论的功能价值在于解释了隐私保护和信息流动之间的逻辑关系,因为社会主体之间只有存在信任,才能形成对各类主体行为模式的事前确信,进而出于合理期待愿意进行信息共享和开放。尤其是涉及数据收集环节时,在“隐私即信任”的理论框架下,网站对其用户承担更多的义务,因为其具备“信息受托人”的角色,需要考虑信息被委托人的最大利益。[19]“隐私的核心不是保守秘密,而是保持控制”[20],人脸信息的核心则是确保自然人能够合理相信自己的人脸信息处于安全可控状态。在此种技术信任论的导向下,个人信息保护影响评估机制的内在治理逻辑也表现为:通过针对“特定安全风险”采取强制的评估流程,既确保信息处理者能够确信技术应用足够安全,也能确保自然人足以信赖技术应用不会损害个人信息权益,这种双向的“信任”促使相应的个人信息处理活动能够合法且合理地进行。
(二)刷脸应用治理语境下技术信任论的理论工具价值
在人脸识别技术治理语境下,技术信任论是将个人信息保护影响评估机制转变为建立信息处理者与自然人之间“信任”关系的保障机制。需要说明的是,这种“信任”状态的达成是通过“发现风险”“评估风险”“降低或缓解风险”和“权益安全保障”四个环节实现的。从实践角度来看,社会公众对于人脸识别技术产生恐慌、质疑的根本原因还是对整个信息处理过程和技术应用概况不甚了解,但是这种“不知情”的状况又不可能简单通过信息公示披露或平台规则阅读等方式化解。因为对于绝大多数社会公众而言,其自身并不可能很好地了解人脸识别技术应用的基本原理,而且在部分情况下,社会公众即便“知情”,也可能为使用相关信息服务而无奈选择接受。国外学者在公共执法领域亦提出了类似的观点,即人脸识别技术并不总是让人信服,故而需要以准确披露识别结果和识别置信度等重要事项为基础,强调以公平的方式消解权益被影响者对技术应用的不知情状态。[21]所以,更为合理的治理策略应当是由个人信息处理者消解这种“不知情”或“知情但无实际决定能力”的问题,即在事前阶段,对人脸识别技术应用采取合理措施,确保自然人能够相信自己的人脸信息不会被滥用、相关联的技术应用并不会减损自己的实际权益。
倘若仅是一般意义上的风险评估,《个人信息保护法》显然没有专门规定个人信息保护影响评估的必要性,故而个人信息保护影响评估的治理逻辑需要从“风险评估”予以延伸:第一,个人信息保护影响评估应当能够实现“发现和识别风险”。因为无论是风险治理机制还是影响评估机制,最基础的制度目标必然是确认存在何种程度、何种类型的风险,并且,个人信息保护影响评估的适用前提是存在严重影响个体权益的可能或显著的个人信息安全风险,所以,这种“发现和识别”功能暗含“判断是否存在重大风险”和“识别重大风险来源、类型和程度”两层内涵。第二,个人信息保护影响评估应当能够实现“评估风险”。在此语境下,风险评估的内涵则不仅仅限于网络安全风险、数据安全风险,否则只会导致个人信息保护影响评估与网络安全风险评估的功能混同。所以,这里的“风险评估”主要是为了判断个人信息安全风险、权益影响风险究竟是否在可控、可接受范围内。现有研究对于“风险”的范围界定实际上属于广义范畴,意欲实现风险可控,[22]既包括可预测风险,也包括未来是否发生的不确定性风险。但后一种风险更多属于一种猜想式风险,难以纳入个人信息保护影响评估范畴之内;前一种风险则属于能够在相应范围内确定发生的实践风险,风险评估的目的在于判断这种风险是否属于社会可接受范围。此种风险认知逻辑在人工智能治理领域同样存在,如常见的论争风险包括自动驾驶安全风险、致命性自主武器风险、司法系统处理个人数据的算法使用风险、通用人工智能攻击创造者风险等。但在部分学者看来,仅有最后一类风险是需要引入“预防原则”的,因为该风险的性质及其可能性存在真正的不确定性,[23]至于其他类型风险则可以通过针对性的治理措施予以有效控制。第三,个人信息保护影响评估应用应当能够实现“降低或缓解风险”。该类机制的核心目标是实现个人信息安全风险和权益影响风险的有效降低或缓解,故而评估报告及其解决方案不能被定位为评估机制的程序性事项,更需要作为义务是否充分履行的实质性判断标准。第四,个人信息保护影响评估应当能够促使义务主体主动采取“权益安全保障措施”。风险缓解措施的本质是降低风险发生的概率和减小权益损害的实际范围,但安全事件的发生不可避免,故而还需要义务主体采取合理措施确保事后的救济措施能够达成与“恢复原状”相持平的权益救济效果。
2017年发布的《信息安全技术 个人信息安全规范》(GB/T 35273—2017)和之后修订的《信息安全技术 个人信息安全规范》(GB/T 35273—2020)均提出“个人信息安全影响评估”,均强调“主要评估处理活动遵循个人信息安全原则的情况”和“个人信息处理活动对个人信息主体合法权益的影响”。《信息安全技术 个人信息安全影响评估指南》(GB-T 39335-2020)延续了这一概念逻辑,其所涉及的“个人信息安全影响评估”虽然也涉及“对个人信息主体合法权益的影响”,但从评估实效来看,其本质上更加侧重“判断风险”而非“权益评估”。更重要的是,《信息安全技术 个人信息安全规范》(GB/T 35273—2020)在“11.4开展个人信息安全影响评估”中强调“在法律法规有新的要求时,或在业务模式、信息系统、运行环境发生重大变更时,或发生重大个人信息安全事件时,应进行个人信息安全评估”。这种适用情形显然与《个人信息保护法》第55、56条并不完全一致,故而无法直接将“个人信息保护影响评估”与“个人信息安全影响评估”等同视之。
四、个人信息保护影响评估机制在“刷脸”应用场景中的适用方式
在明确个人信息保护影响评估机制是以增强技术可信任度为导向、以督促义务充分履行为目标后,接下来需要予以明确的是该项机制在刷脸应用场景中如何适用的问题。诚然,《刷脸安全办法》已经明确提及了相应的评估内容和评估标准,但是由于立法技术所固有的简洁性和清晰性,《刷脸安全办法》并没有明确提及评估模式、评估流程以及评估结果等具体事项,这也是当下法律适用过程中需要解决的现实问题。
(一)评估标准的场景化导向
个人信息保护影响评估的目的是增强社会公众对人脸识别技术应用的信任,进而促进该类技术的创新应用。因此,《个人信息保护法》和《刷脸安全办法》并没有严格限定评估流程和评估事项,仅是对评估标准作出一般性规定。一方面,为了降低业务合规成本,强化个人信息保护影响评估的可操作性,有必要对具体的评估环节进行明确规定;另一方面,个人信息保护影响评估也需要更为灵活的评估框架,以适应不同应用场景下人脸识别技术应用的评估需求,故而需要对评估标准予以限定。这两种评估机制建构路径看似矛盾且冲突,但从治理实践的角度考量,针对常见的技术应用场景,通过规范指引、实践案例等方式规范评估义务的履行,能够有效避免敷衍履行义务、形式化履行义务的现象出现。同时,在这些常见应用场景之外,预留足够的法律解释空间,更能确保个人信息保护影响评估成为一项衡量自然人权益影响程度的判断工具,而不是一种形式化评估的“机械”工具。这类制度建构方式在早些年APP个人信息治理实践中已经有所体现,如《常见类型移动互联网应用程序必要个人信息范围规定》便是以“类型化指引+非类型化灵活调整”的治理逻辑明确个人信息收集必要性的判断标准。
兼顾“标准化履行”和“灵活动态调整”的制度建构方式同时也是个人信息保护影响评估特殊性的必然结果。无论是内部安全风险评估,还是一般情形下的个人信息安全风险评估,其评估活动本质上均属于风险管理活动。相应地,标准化、模块化的评估流程和评估事项更有利于进行定期评估、高频次评估。然而,个人信息保护影响评估的核心是个人权益影响评估,个人信息安全风险属于个人权益影响的一个主要环节。鉴于权益影响类型的复杂性、个人信息处理活动的牵连性等现实因素,标准化、模块化的评估流程和评估事项在实施过程中可能会产生各类超出立法者预期的实践需求,进而导致该类评估机制难以全面实施。例如,在动物园、景区等场所,游客“刷脸”进出和园区内部采用人脸识别的目的具有差异性,前者是为了核验游客身份,后者则是为了进行公共安全管理。此时,面向景区、园区等场所的一般评估事项可能就无法兼顾两种应用场景的权益影响差异性。更重要的是,园区内部设置人脸识别设备和设置公共安全视频设备又属于两个不同问题,前者较后者具有更强的监控属性,能够实时跟踪特定个人的行为轨迹,存在单独评估权益影响风险的必要性,这也是分别制定《公共安全视频图像信息系统管理条例》和《刷脸安全办法》的原因所在。
此外,“灵活动态调整”评估流程和评估事项也是为了适应信息技术的发展趋势,《个人信息保护法》和《刷脸安全办法》所提及的评估内容更是需要预留足够的延展空间。如果仅以当下常见的人脸识别技术应用为限,“采取的保护措施是否合法有效并与风险程度相适应”“可能对个人权益带来的损害和影响”等评估内容足以解决大部分的人脸识别技术应用场景中的个人信息保护影响评估适用问题。但是,人脸搜索、情绪识别等人脸识别技术的延伸性应用存在更为严峻的权益影响风险。人脸搜索主要是指在特定区域内人群内快速识别和确认特定自然人的身份信息,因为该类技术应用涉及对个人行踪轨迹等敏感个人信息的收集和处理,而且多以远距离、无感式识别为主,故而相应的个人影响评估事项应当以内部工作人员的安全保密管理机制、信息系统访问权限的严格限制、人脸信息尽可能本地化存储等为主。情绪识别则是人脸识别的“再延伸”,通过对人脸信息的采集和分析判断自然人的情绪状态。这类技术应用方式不仅会采集更多的人脸信息,而且其权益影响范畴已经从个人信息权益、隐私权等扩展至一般人格尊严,评估事项的重心则需要调整至技术应用的必要性、情绪状态是否与其他业务存在关联等。如欧盟在“《面部情绪识别》新技术评估快报”(TechDispatch#1/2021 - Facial Emotion Recognition)中将该类技术解释为人脸检索、面部表情检测和表情归类至情绪状态三个环节,并指出核心风险除了以往的必要性、合比例性等之外,还包括“通过了解个人情绪更容易操纵个人精神”“通过面部表情推断个人政治立场”等敏感性风险。[24]
(二)评估事项的范围确认
基于上位法与下位法的关系,《刷脸安全办法》所列举的主要评估事项本质上还是以《个人信息保护法》第56条的内容为基础,增加了“是否合乎科技伦理、强制性国家标准”“是否限于实现目的所必需的准度、精度及距离要求”“人脸信息安全事件发生的实际风险水平及其危害结果”等。但是,人脸识别技术使用者的业务合规能力并不完全相同,仍然有必要在规范指引或实施细则等层面进一步细化这些评估事项。欧盟《通用数据保护条例》(GDPR)第35条等条款同样列举了数据保护影响评估的具体事项,但欧盟成员国会再将其细化。例如,罗马尼亚的个人数据处理监管机构(ANSPDCP)在2018年10月以实例清单的形式细化需要进行数据保护影响评估的7类情形,其中除了前三个实例与《通用数据保护条例》第35(3)条重复外,还包括“通过自动化手段大规模处理弱势群体数据”“通过应用创新性技术大规模处理个人数据(如人脸识别技术等)”“大规模处理基于互联网或其他方式传输传感器设备产生的个人数据(如智能网联汽车等)”“大规模处理自然人交通或位置数据”四类。[25]再如,英国脱欧之后,数据保护影响评估的实施环节被细化为“确定实施数据保护影响评估的必要性”“描述个人数据处理活动”“考虑咨询监管机构”“评估必要性、相称性”“识别和评估风险”“确定减轻风险的措施”“签署并记录结果”,并强调义务主体可以根据个体情况灵活设计评估流程。[26]
从国外制度实践情况来看,评估时限、评估情形等法律条款的确立仅仅是数据保护影响评估机制的实施起点,更关键的环节在于如何进行评估。如欧盟在《通用数据保护条例》的基础上发布了《关于数据保护影响评估指南(DPIA)和为GDPR目的确定处理活动是否“可能导致高风险”的指南》(Guidelines on Data Protection Impact Assessment, (DPIA) and determining whether processing is “likely to result in a high risk” for the purposes of Regulation 2016/679)(以下简称“评估指南”),其目的也是进一步指导各类义务主体如何具体开展数据保护影响评估,并列举了9类需要进行评估的数据处理活动,包括“以评分为导向的用户画像生成”“特定区域的监控”“大规模的数据处理活动”“超出数据主体合理预防方式进行多个数据集匹配、组合等操作”等。[27]在此之后,欧盟先后发布《人脸识别技术:执法中的基本权利考虑》(Facial recognition technology: fundamental rights considerations in the context of law enforcement)和《执法领域的人脸识别技术指南》(Guidelines 05/2022 on the use of facial recognition technology in the area of law enforcement-version 2.0),这些规范性文件均强调要求评估人脸识别技术应用对欧洲公民基本权利的实际影响,并结合“评估指南”明确大部分人脸识别视频监控场景都应当进行数据保护影响评估。倘若评估表明,尽管控制者计划采取安全措施,但处理过程仍然会产生“高风险”,那么处理人脸信息等个人数据之前还需要征求监管机构的意见。[28]
与国外制度演进过程相比,我国的个人信息保护影响评估也面临着相同的问题,即如何配置更为明确的评估实施细则。在技术信任论的导向下,个人信息保护影响评估在法律适用过程中还存在评估模式的争议,即全面评估和重点评估两种模式究竟如何选择。全面评估的内在逻辑是,因人脸识别技术应用涉及重大风险,且这些重大风险导致的损害结果难以在事后救济,故而需要通过全面评估确保形成对风险情况的全面认知,尽可能在事前阶段预防风险发生。重点评估的内在逻辑则是,因人脸识别技术应用风险有其特殊性,故而相应的评估应当围绕社会关注的重点风险事项展开,同时还能兼顾各类法律主体的实际义务履行能力。结合前述欧盟的制度实践来看,欧盟并未强调评估事项、评估流程以及评估范围的完全相同,仅强调评估标准的一致性,这是因为GDPR框架下的数据保护影响评估表现为“管理数据主权权利风险的工具”,具体评估机制的设置需要从数据主体的立场出发,故而需要更为灵活的框架性工具。我国的个人信息保护影响评估在权益影响层面具有相似性,虽然面向重大风险、特殊风险采用全面评估能够最大化识别、预防风险,但是,该项评估机制本质上还是以自然人权益保障程度为导向,其他风险评估事项完全可交由以内部风险管理活动为导向的一般风险评估机制涵盖。针对公共场合人脸识别应用,部分学者主张结合“绝对应用场景”“相对应用场景”和“禁止应用场景”三类模式,有重点地从应用手段、应用目的、技术侵入程度等要素进行利益衡量。[29]因此,我国个人信息保护影响评估所采用的模式应当是重点评估模式,重点从权利主体的立场评估人脸识别技术应用是否可能对权利造成重大影响。在实践中,不少健身房经营者通过“刷脸”门禁提供“24小时自助式服务”,那么这类经营者在使用“刷脸”门禁前应当就消费者关注的人脸信息的泄露风险、健身房采取的安全保障措施、人脸信息的实际处理者等事项进行重点评估。
(三)评估结果的灵活披露
在实践中,个人信息保护影响评估的另一适用难题便是评估结果究竟是否应当对外公开,以及应当以何种方式对外公开。按照技术信任论的导向,社会公众对人脸识别技术应用的信任是以人脸信息处理活动和关联业务活动的公开透明为基础。倘若评估结果不公开,那这种“内部评估”难以促成技术信任的产生;但倘若评估结果公开,义务主体又担心会泄露其部分商业秘密,影响正常经营活动。而且,《个人信息保护法》和《刷脸安全办法》均提及了评估报告留存时间和大规模处理人脸信息的强制备案义务,使得评估结果是否需要公开似乎也失去了讨论的必要性。
首先,备案与公开虽均具有“信息对外披露”之内涵,但两者所面向的治理效果存在显著差异:《刷脸安全办法》第15条所规定的备案内容是以“评估报告”为限,结合“人脸信息保护负责人的基本情况”“处理目的、方式和安全保护措施”等其他备案事项来看,其直接目的是以强制备案方式督促义务主体严格履行人脸信息保护义务。此外,备案的适用情形是以“公共场所使用”和“存储特定数量的人脸信息”为限,备案的另一目的则是在损害事件发生后结合备案信息判断义务主体是否存在严重过错。相对地,评估结果的公开对象是社会公众,直接目的也是让社会公众能够知晓人脸识别技术应用是否具有应有的安全性和可靠性。相应地,也有学者指出,评估结果的公开不仅能够提升技术应用实际情况的透明度,而且还能够推进技术服务提供者、使用者与社会公众之间的风险交流,避免个人信息保护影响评估机制最终流于形式。[30]
其次,个人信息保护影响评估机制是以技术信任论为基础,评估结果的公开是为了确保社会公众能够合理相信人脸识别技术应用不存在损害其实际权益的风险。在法律实施过程中,评估报告应当详细记录评估流程、评估主体、评估标准和评估结果等内容,而评估结果仅仅是有关人脸识别技术应用是否存在重大风险以及能否有效预防和控制的事实描述,故而评估结果并不会包含评估报告可能涉及的内部管理制度、日常经营活动等重要信息,评估结果的公开当然也不会对义务主体实际权益产生负面影响。更何况不对外公开结果的内部评估机制没有必要在立法中专门规定,仅由个人信息处理者根据自身情况自行决定评估频率、评估流程等事项即可。此外,评估结果的公开与个人信息处理者的商业声誉等利益受损之间并没有直接关系,更确切地说,只有公开评估结果才不会让社会公众产生“窃取人脸信息”“非法监控行动轨迹”等负面印象,进而商业声誉才会得到维护。而且,个人信息保护影响评估通常是在部署技术应用之前进行,如若评估结果显示“高风险、不可控”,也就意味着该类技术应用属于被法律禁止的范畴,此时不涉及评估结果的公开问题。
最后,个人信息保护影响评估的结果公开本质上属于个人信息处理者履行合同义务的应有之义。在人脸识别信息服务合同法律关系中,自然人与信息服务提供者之间的“合意”表现为双方对人脸识别信息服务安全可靠的共同认可。而在实践中,自然人和信息服务提供者之间并不会明确约定相应的风险范畴,此时,业已公开的评估结果则可以作为判断双方合意内容的具体依据。换言之,评估结果的公开方式至少应当表明信息服务提供者经过初步评估后,能够确保相应的信息服务符合法律法规,技术应用方式符合科技伦理,并且能够排除显著存在的重大安全风险。同时,这种最低标准的公开形式也不会给线下场所增加额外的业务合规负担,仅需在进行人脸验证时,明确告知自然人已经进行个人信息保护影响评估并能够确保技术应用符合法律法规、国家强制性技术标准等要求。例如,对于采用刷脸进出的KTV、健身房等场所,要求这类主体事无巨细地向消费者解释评估过程、评估标准等事项未免强人所难,但要求其“承诺”其采用的“刷脸”应用合法合规且可靠,告知消费者“刷脸”应用已经过评估流程不会有异常风险,这更符合自然人和信息服务提供者的实际需求。
(四)适用示例:个人信息保护影响评估机制的具体适用
具体而言,针对“刷脸”应用的常见应用场景,则可以确立行业化、标准化的个人信息保护影响评估模式。例如,针对小区、写字楼等进出入身份核验等场景,鉴于相关“刷脸”应用的信息安全环境、处理目的、处理方式在一定周期内具有稳定性,且“刷脸”应用多为第三方提供,物业管理者在进行个人信息保护影响评估时可以采用模块化、标准化的评估方式,评估事项主要包括“刷脸应用是否安全可靠”“第三方能否提供刷脸应用的风险评估报告和技术标准验证报告等材料”“人脸信息的内部访问权限是否严格落实到位”“人脸信息是否存在挪作他用风险”等事项。评估结果则应当以简化版的评估报告形式向业主公布,至少应当列明“第三方提供刷脸应用的安全认证材料”“人脸信息是否存在挪作他用可能性”“刷脸应用是否合法”等具体的评估指标,以此确保自然人能够确信“刷脸”应用具备法定的安全水平。
针对公共场所、APP、小程序等“刷脸”应用场景,则需要根据应用场景和应用主体确定相应的个人信息保护影响评估模式。例如,针对公园、健身场馆等场景,刷脸应用的核心目的是核验身份,对个人权益影响相对较小,故而可以采用重点评估模式,评估事项除了强制性评估事项之外,还需要重点评估这些场所的经营者、管理者是否在出入口或者官方网站上事前说明“刷脸”应用的相关基本情况。同时,《刷脸安全办法》第13条对公共场所的人脸信息采集范围有所限定,故而“刷脸应用的采集区域是否合理合法”和“刷脸应用是否设置了足以让社会公众清晰可见的显著提示标识”也应当纳入重点评估范畴。
至于APP、小程序采用“刷脸”验证等场景,考虑到信息服务提供者本身的技术能力、人脸信息的实际安全风险、涉及用户其他权利的行使等要素,更适宜采用全面评估模式,即APP、小程序运营者需要整体性评估“刷脸”应用对用户合法权益的影响范畴、应对措施及其应对效果。例如,涉及人体健康指征监测的APP运营者在进行“刷脸”应用个人信息保护影响评估时,未能全面评估人脸信息是否会被超范围使用或者是否会与其他人脸信息处理者进行传输、共享,即便评估APP、小程序不存在重大异常安全风险,也不应当被视为完成个人信息保护影响评估。再比如,对于涉及面部表情检测的APP,运营者的评估事项应当囊括所有人脸信息处理环节,表情、情绪的监测已然触及用户的隐私权,个人信息保护影响评估的最终目的应当是确保人脸识别技术应用方式及其保护措施对用户合法权益影响程度降至最低。APP、小程序运营者在公开评估结果时,为了避免用户对评估结果的“过度解读”,评估结果无需面面俱到,但至少应当说明人脸信息处理活动不会对个人合法权益造成超出用户基于平台规则、现行立法而产生的合理预期范畴,并且应当满足用户查阅评估结果时的便捷化要求,例如,需要跳转多个页面才能查阅评估结果的情形属于不合理的评估结果公开方式。
五、结语
在人脸识别技术治理体系趋于完善的当下,更需要关注具体治理规则在实践中的适用逻辑和适用方式,以此推动人脸识别技术的安全应用和高效应用。个人信息保护影响评估机制有别于一般的个人信息安全评估机制,其特殊性在于强调对个人信息处理活动、个人信息安全风险以及个体权益影响程度的重点专项评估。借由评估这一活动引入合理的督促机制,确保能够在事前阶段有效预防和控制重大风险或重大权益影响。目前,人脸识别技术备受社会热议的一个原因是社会公众无法对该类技术应用产生信任,层出不穷的人脸信息“窃取”事件阻碍了技术的广泛应用。而个人信息保护影响评估作为衔接人脸信息保护和技术应用安全保障的督促机制,得益于重点评估、公开评估结果以及灵活评估等制度特点,能够让社会公众充分了解人脸识别技术应用的实际情况,既督促了义务主体通过评估活动确认法定义务业已充分履行、重大风险业已得到控制,也促成了社会公众确信这类技术应用不会产生超出预期的安全风险。在未来的人脸识别技术治理活动中,还需要在《个人信息保护法》《人脸识别司法解释》《刷脸安全办法》等法律法规的基础上,进一步明确个人信息保护影响评估在该领域的实施细则,避免出现形式化评估、敷衍评估等现象。
本文注释从略。版权归原作者及原出处所有,内容为作者观点,不代表本公众号赞同其观点和对其真实性负责。如涉及版权问题,请与我们联系。
⚖️
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.