界面新闻记者 | 张旭
界面新闻编辑 | 刘海川
为做好未成年人相关制度衔接,日前,国家网信办、国家新闻出版署等8部委印发《可能影响未成年人身心健康的网络信息分类办法》(以下简称《办法》),该《办法》自2026年3月1日起施行。
此前在2024年1月起施行的《未成年人网络保护条例》(下称:《条例》)第23条提出:国家网信部门会同有关部门会对“可能影响未成年人身心健康的信息”的具体种类、范围、判断标准和提示办法予以明确。
“制定上述《办法》是落实《条例》的重要举措。”国家互联网信息办公室有关负责人表示,《办法》旨在将法律法规要求进一步细化为具体制度规范,为网站平台、内容创作者等各方提供了清晰明确的指引。
北京市京师律师事务所工会主席、“法援护苗”未成年人法律服务基地负责人陈亮告诉界面新闻,《办法》作为《条例》的下位配套规则,形成了“法律—行政法规—部门规章”的三层保护体系,增强了制度的系统性和执行力。
据介绍,上述《办法》共10条,明确了可能影响未成年人身心健康的网络信息的4种类型及具体表现形式,并将不当使用未成年人形象等近年来突出网络问题纳入治理范围。此外,《办法》还针对算法推荐、生成式人工智能等新技术、新应用、新业态可能带来的内容风险提出防范要求。
回应未成年人“恶意摆拍、打造畸形人设”等热点问题
现行《中华人民共和国未成年人保护法》《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》等法律均明确提出“防止未成年人接触有害信息”,但并未详细界定“有害信息”的具体类型和表现形式。
“作为配套措施,《办法》将“可能影响未成年人的信息”分为4类(如暴力恐怖、性挑逗等不良行为的信息、价值观误导、不当使用未成年人形象以及披露个人信息),并列举具体情形,使监管和平台审核有了明确依据。”陈亮说。
“其划分逻辑主要基于信息对未成年人可能造成的具体危害类型和影响维度,旨在从源头上构建更全面的保护体系。这4类信息并非简单的内容罗列,而是系统性地覆盖了网络环境中威胁未成年人身心健康的多个核心层面。”中华律师协会未成年人保护法律专业委员会委员李晓霞告诉界面新闻。
陈亮进一步解释,近年来,一些网络内容常通过过度消费、畸形展示未成年人形象牟利(如儿童软色情、炒作‘网红儿童’等),但原有法律对此类行为缺乏明确界定。
南都大数据研究院2025年3月发布的一项调查发现,在部分短视频和社交平台上出现不少未成年人辍学、退学vlog内容,个别未成年网红为“在线营业”长期请假,学业疑受影响。此外,部分未成年人家长以记录孩子日常生活为由,为孩子戴假睫毛、化浓妆出镜直播,甚至将孩子打造成“大胃王”引流变现。
《办法》则针对上述网络出现的热点问题进行回应。例如,在价值观误导层面,《办法》明确了几类情形包括宣扬奢靡享乐、炫富拜金、消极颓废以及宣扬畸形审美、低俗恶俗文化等。
不当使用未成年人形象方面,《办法》也针对当下网络热议的“网红儿童”问题提供了明确治理依据:利用未成年人形象摆拍演绎含有不良价值观或者不当言行的剧情内容的;通过恶搞未成年人、利用未成年人打造争议人设等方式博取关注的。
“这不仅是对个别极端案例的回应,更是向全社会传递明确信号:未成年人的身心健康与人格尊严,不能成为流量经济的祭品。”陈亮表示,其成功实施,需要法律、技术、教育与伦理的多重协同。
此外,针对“诱导未成年人模仿不良行为”的信息中,《办法》列举了性暗示、网络暴力、诱导非理性消费等13种具体情形。其中最难界定和监管的则是“游走于字面与含义之间、依赖于圈层与语境、且不断变异”的网络话语。
陈亮表示,这些网络话语,通过隐晦方式(如谐音梗、拆解字、特定符号、亚文化暗语)传播不良网络用语和不良价值观,难以被精准发现。
对其治理,陈亮认为,不能追求“绝对精准”的静态过滤,而必须建立一套“动态识别、分层研判、综合治理” 的响应体系。监管方和平台需要在技术上更聪明(理解语境),在规则上更精细(明确红线),在态度上更开放(理解文化),最终目标不是消灭所有青少年亚文化表达,而是精准识别并阻断其中真正具有诱导具体不良行为风险的部分,同时为健康、多元的网络表达留出空间。
李晓霞则建议,平台应投入技术资源,开发能够理解图文结合语境的AI模型。此外,面对语境复杂、新梗频出的情况,需配备专业的人工审核团队。平台也需要建立反馈机制,确保判断标准与时俱进。
“总而言之,精准判断依赖于法律明确定义、先进AI技术、专业人工审核以及全行业统一标准的有机结合,进而从‘模糊感知’走向‘清晰可判’。”李晓霞说。
强化平台主体责任
在主体责任方面,《办法》明确,对可能影响未成年人身心健康的网络信息,网络信息内容生产者以及网络产品和服务提供者,应按照相关法律采取防范和抵制措施。此外,上述主体还应当在信息展示前,在明显位置作出显著提示。
《办法》第9条则规定: 网络产品和服务提供者不得在首页首屏、弹窗等处于产品或者服务醒目位置、易引起用户关注的重点环节,呈现可能影响未成年人身心健康的网络信息。
“规定网站平台和内容生产者必须采取防范和抵制措施,并在信息展示前进行显著提示。同时,严禁在首页首屏、弹窗、热搜、榜单、推荐等醒目位置呈现此类信息,这是从传播源头上限制其影响范围。”李晓霞说。
李晓霞解释,《办法》针对当前网络暴力、不良价值观诱导、非理性消费等突出问题,提出了具体、可操作的防范措施,如禁止在首页、热搜等关键位置推送,并要求算法推荐系统不得向未成年人推送此类信息,形成了“提示+位置限制+技术阻断”的组合拳。这种系统性的治理思路,比单纯的禁止更具可行性。
上述对平台的防范要求能否真正起到警示未成年人的作用?陈亮指出,从首页、弹窗等位置移除不良信息,能直接减少未成年人无意中刷到此类内容的几率,尤其对低龄儿童效果显著。其次,营造“保护性环境”的社会信号。此类规定向社会传递明确规范:网络空间需为未成年人设置“缓冲带”。最后,从长期看,有助于形成“未成年人优先”的网络文化,潜移默化影响用户行为。
从法律责任角度,平台若未落实上述要求,可能面临哪些处罚?陈亮表示,首先,面临行政处罚,包括责令限期改正与警告、罚款、暂停或关闭相关业务、吊销许可或资质;其次,民事侵权责任,包括对未成年用户及家庭的赔偿;最后,极端情形下可能涉及刑事风险,如拒不履行信息网络安全管理义务罪、传播淫秽物品罪等。
构建“多元共治”的生态治理体系
《办法》施行后可能面临那些难题?陈亮表示,尽管有实名认证,但未成年人使用成人账号、跨境平台访问、离线内容分享等情况普遍,身份冒用难以完全杜绝。
此外,内容判定还存在“灰色地带”。陈亮称,“不良价值观诱导”“软色情”等概念需进一步细化标准(例如,哪些网络用语、亚文化符号构成违规),否则平台审核易陷入主观性或选择性执法。
在算法治理方面,《办法》要求算法“不推送有害信息”,需区分主动推荐与被动检索场景,而这可能涉及商业机密(如推荐模型参数),对此,监管方面又该如何做到穿透审计。此外,“家庭私域”与公共监管的边界需要进一步明确。家长在私人社交账号“晒娃”是否属于“不当使用未成年人形象”?过度介入可能侵犯家庭自治,放任则存在风险。
对此,陈亮建议,《办法》的落地需超越传统“命令—控制”式监管,转向“多元共治、技术赋能、韧性适应”的生态治理:短期靠严格执法树立标杆(如查处首批违规热搜、弹窗案例);中期靠标准细化与工具支撑(制定分类指南、提供技术工具);长期靠文化培育与全球协作(提升全社会网络素养,参与国际规则构建)。
“最终目标不仅是让平台‘不敢违规’,更是通过制度设计,使其在追求商业利益时,自发将未成年人保护内化为创新基因——这需要监管的智慧、技术的向善与社会的共同坚守。”陈亮说。
此外,中国社会科学院大学互联网法治研究中心主任刘晓春在中国网信网网站刊登的一篇名为《未成年人网络保护的精准施策与体系保障》文章表示,《办法》也为新型风险预留了动态更新的空间,各类条款中多次出现“包括但不限于”“其他可能影响”的表述,为应对新型网络风险留下“接口”。随着人工智能生成内容、智能体工具等技术和场景的发展,未来可能出现新的影响未成年人身心健康的信息形态,《办法》可基于实践新增分类、细化标准,始终保持对网络风险的前瞻性应对。
“总体而言,《办法》标志着我国未成年人网络保护工作从原则性要求迈向了精细化、系统化的实操阶段。”李晓霞表示。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.