技术的迭代与社交网络的普及,正让网络内容生态走入前所未有的复杂境地:AI生成技术解放了创作,但也让虚假内容更具迷惑性;网络暴力与热点事件相伴而生,挑战讨论的边界与秩序;争议事件常裹挟情绪先行,反转不断损耗信任。以上种种,都挑战着网络空间的治理难度。
作为承载海量信息流转的空间,内容平台的治理能力与透明度,不仅关乎平台自身的生态存续,更成为社会关注的焦点。
一年前,面对日益复杂的网络生态与外界的诸多审视,抖音主动开启了平台工作的“透明化”元年。2025年1月,抖音宣布建立安全与信任中心,推出十项措施推动算法和平台治理透明化。一年过去,是时候重新审视抖音的“透明度”了。
近日,抖音发布《2025抖音安全与信任年度报告》。《报告》显示,2025年,抖音上线安全与信任中心网站,公开抖音算法原理,对公众关切的问题进行解答;举办30多场算法沟通会,倾听学家、专家、创作者的诉求,吸纳建议。
在平台治理方面,大模型技术被引入谣言治理,平台谣言内容曝光量下降90%;针对争议热点信息传播、AI生成内容、恶意营销号等平台治理新兴问题,抖音推出《社区热点信息和账号治理规则(试行)》等7项治理类规范,尝试给出解法。
数字只是答卷的第一层。从AI技术对谣言的精准狙击,到面对网络暴力与争议事件时的审慎权衡,近日抖音内容运营负责人李翔宇接受第一财经独家采访,深度复盘平台过去一年公开和治理工作之路,这背后既有技术高歌猛进的“解”,也充满了人性与社会复杂性交织的“结”。
AI重塑治理效率
回溯一年前推出十项举措的初衷,源于2024年下半年多起争议事件引发的外界误解与关切。
李翔宇坦言,多起争议事件让平台意识到,“平台不能只埋头做治理,更要把工作纲要和规划主动对外披露,让公众看到我们的决心与行动”。2025年1月,抖音发布了十项举措,称将“切实推动平台工作透明化”。
过去一年里,抖音在安全与信任中心网站公开算法核心逻辑及运营机制,回答“网红是平台‘强推’出来的吗”“平台怎么破除信息茧房”这样的质疑。治理端,在一些新兴问题的治理规则制定中,抖音在引入学者、创作者征集意见的,分步骤落地新规。与此同时,在诸如“封禁张兰账号”等舆论旋涡中,抖音尝试对外说明处置逻辑与过程——尽管很多时候,很难获得所有人的理解。
![]()
2025年3月,抖音上线“安全与信任中心”网站,公开算法原理与平台治理体系。
这套透明机制试图以公开消解信息差、构建信任。但复杂内容生态的管理,不能止于公开。诸如谣言、网暴等议题仍是平台要重点解决的治理问题。
在谣言治理这一全行业公认的“老大难”问题上,抖音引入AI大模型技术,尝试让谣言治理从“被动追查”到“主动防御”。
“以前我们常说,造谣一张嘴,辟谣跑断腿。”李翔宇描述了过往谣言治理困境。《科学》杂志曾发表文章称,社交媒体上,谣言比真消息的传播更快、更广、更深。因猎奇、先入为主等特点,谣言获得首次转发的概率比真相高70%。近年来AI生成技术的发展,也让“造谣”成本和门槛降低。
用“AI治理AI”成为解题思路。传统的谣言治理模式高度依赖外部信号——权威媒体或机构发布辟谣信息后,平台跟进,回溯并下架相关谣言内容。“这个过程是后置的,而且平台自身很难承担事实核查的裁判。”通常,单例谣言处置时效以“天”为单位,往往等处置完成,谣言已造成广泛传播。
“AI可以辅助我们识别谣言,”李翔宇解释道,“过去需要研判编辑去搜索、查证权威信源的工作,现在可以让大模型主动去检索和辅助核实。”抖音通过为AI设定一个高质量、分等级的“信源库”,让AI在面对冲突信息时优先采信高权重信源,从而辅助人工进行二次判断。
2025年7月,网络上流传“老年人乘坐高铁将有新优惠折扣”的不实信息,谣言治理大模型能够在内容刚有热度时就主动捕获,通过检索 12306 客服回应、上海辟谣平台通报等权威信源,判定内容为捏造后即进行处置,并拦截了同类新增内容,避免大范围误导。数据显示,和2025年年初相比,抖音谣言曝光量下降 90%,举报量降幅达74%。
在此基础上,抖音推出了“AI求真”功能,在疑似不实内容下方生成一个事实核查卡片,用户点击后即可看到关于该事件的权威描述。除了显性的谣言,抖音还会把“AI求真提示”应用于那些更模糊、更具煽动性的“低信任感内容”。
“比如一个普通用户用很夸张的‘震惊体’方式讲述社会时政,内容不一定是假的,但表达方式和形象会让人产生不信任感。”对于这类内容,平台不会一删了之,而是通过“AI求真”进行风险提示和事实澄清,旨在通过分层治理,在保障表达的同时,提升用户的整体内容消费信任感。
![]()
抖音推出“AI抖音求真”。用户在浏览视频时,一些易产生误解、谈及疑似不实信息的内容,将会被挂载“AI抖音求真”跳转链接。用户点击可达“求真卡”页面。
不过,尽管有了AI的辅助,谣言的复杂性依然远超想象。例如一些热点事件的发酵过程中,平台面对着大量模棱两可、无法证实也难以证伪的信息。如何平衡事件“真空期”里的合理猜测与阴谋论,是平台谣言治理工作中面对的现实问题。
李翔宇也在采访中强调,技术不是治理谣言的满分解法。例如,AI大模型搜索的准确性高度依赖于互联网上的权威信源,如果没有媒体、政务平台的报道和通报提供源头,技术再强也无法无中生有地做出准确判断。
当争议没有标准答案
如果说技术为平台提供了解决确定性问题的“矛”,那么在面对那些充满模糊性、主观性和社会复杂性的热点问题时,平台则更需要一面审慎、克制而又充满责任感的“盾”。
2024年4月,重庆21岁小伙 “胖猫” 跳江自杀的消息在网络上炸开了锅。事件刚发酵时,“胖猫” 姐姐在社交平台发文,指控 “胖猫” 前女友谭某以恋爱为名诈骗数十万元。彼时,警方尚未公布调查结果,事实还笼罩在迷雾中,但网络上的情绪已然失控。
偏激的言论在各个平台蔓延,谭某瞬间成为网暴的目标,无数辱骂信息涌入她的社交账号。更荒唐的是,有人为了 “声援胖猫”,将近百吨外卖堆在长江大桥上,造成了严重的公共资源浪费。直到一个月后,2024年5月19日警方调查结果出炉,才证实谭某并未构成诈骗,反而是 “胖猫” 姐姐通过引导评论、购买流量等方式刻意炒作事件。
这起 “胖猫事件” 像一面镜子,照出了当下网络生态中争议热点事件治理的困境 —— 在事实未明时,如何避免情绪先行,防止事件过度发酵?
“争议事件的难点在于,它往往‘公说公有理,婆说婆有理’,甚至没有一个明确的对错。”近两年,大量热点事件裹挟对立情绪,演进过程漫长。事件初期,面临事实模糊与情绪交织的双重考验,而后续的多次反转,不仅打乱用户对事实的判断,更易激化情绪、破坏理性讨论的社区氛围,让治理难度倍增。
外界常有的质疑是——平台是不是希望争议事件越炒越热、反转不断,才能持续收割流量?
李翔宇在采访中明确否认了这一说法。他表示,抖音不欢迎“有毒”的流量。对平台而言,流量释放给优质创作者和内容,才符合长期利益。从实际数据来看,此类热点事件流量在抖音整体流量占比小的可以忽略不计。降低争议热点流量并不会对抖音产生影响。
去年5月,抖音出台了《社区热点信息和账号治理规则(试行)》,开始系统性地探索争议热点的应对之道。李翔宇总结了其中的多个核心共识。
例如,针对事实模糊、争议巨大的热点,平台会进行重点研判。避免事件在前期真相不明的情况下发酵过热,为热点的核实和真相的揭示争取时间。
与此同时,建立当事人核实与真实信息传播机制,打击仿冒、蹭热。例如,在 “韦东奕入驻社交媒体”事件中,平台主动核实当事人账号真实性,打击仿冒、蹭热账号3500个。
在商业规范层面,新规严禁争议热点当事人“趁热变现”。“过去一些人,火了第一件事就是‘123上链接’。这种导向非常糟糕。”李翔宇强调,对于此类当事人,平台将在其热度高峰期关闭其直播打赏、商品橱窗等商业权限,坚决杜绝“黑红也是红”的流量变现路径。
![]()
《2025抖音安全与信任年度报告》显示,过去一年,平台根据《社区热点信息和账号治理规则(试行)》对多例热点事件相关信息进行治理
尤为考验平台智慧的是,鼓励优质、理性的内容,建立社会共识。在热点争议事件中,李翔宇观察到,一边倒的立场宣泄或传统的说教内容,反而容易引发二次攻击。而一些优质的创作者,通过一个视频将正反两方的观点都清晰呈现,并以贴近用户心态的方式解释了复杂的事件背景,最终获得了上千万的播放。
在这背后,需要算法调优。例如,针对那些长期被诟病的算法争议,“信息茧房”、“回音壁”乃至“愤怒诱饵”等问题,李翔宇坦言,单纯公开算法并非万能解药。他解释说,公众对算法的刻板印象,往往源于对其运作机制的隔阂,但即便平台选择毫无保留地公开原理,其内在的极端复杂性——涉及海量参数、实时特征工程与多目标动态平衡——对于非专业人士来说,理解门槛依然极高。因此,更具建设性的改变在于,将优质导向,直接融入算法的设计与持续调优之中。
“算法本身预估的是用户的行为,比如点赞、完播、评论,但这不完全等同于‘喜欢’。”他举例说,一个激起用户愤怒的内容可能会有很高的完播率和评论量,但用户体验是负向的。因此,平台会引入更多维度的信号来甄别用户的真实反馈。“如果一个视频引发了大量攻击性、偏激性评论,我们会认为这个内容与用户并不匹配,并进行个性化降权。”
反之,对于那些有深度、有价值但可能因为过长而完播率不高的内容,平台则会捕捉“收藏”、“复访”等深度互动信号。“一个解读《红楼梦》的450分钟视频,完播率可能很‘惨’,但它的收藏率远高于普通视频。我们把这类信号纳入测算,就能让这种优质内容获得更多流量,最终这个视频获得了几千万的播放。”
“这让我们意识到,事在人为。好的内容,即便理性,也能够在大流量中找到自己的位置。平台要做的,就是通过算法调优,让这些声音被更多人听见。”李翔宇对第一财经记者说,希望通过算法调优,让抖音内容生态变得更加多元和深厚。
网暴治理没有终点
与争议事件同样棘手的,是网络暴力。
2022年前后,网络暴力逐渐成为社交网络上的新现象。从“粉发女孩”自杀,到“武汉妈妈”坠楼,多起热点事件中,舆论重压下,相关方不堪重负,造成悲剧,引发社会关注。但回到现实层面,“网络暴力”并不具备法律意义上的界定,也让网络暴力这一表述在近几年被迅速逐渐泛化。又因网暴常与热点事件、人物相交织,其中讨论、维权与暴力边界的“非标”性,也让网络暴力的治理更加复杂。
李翔宇认为,网暴治理最大的挑战在于其高度的模糊性、非标性和主观性。“我们曾邀请一些自称被网暴的用户来座谈,发现体验非常个性化。有的人被骂几次无所谓,有的人被骂两句就受不了。”比如邻里纠纷的当事人,可能因在评论区“吵架”,就会觉得自己被网暴了;而一些专家、学者经常接受媒体采访,面对网络上的质疑和攻击时耐受度更高,不会觉得自己被网暴。
还有一些特殊职业,因公共服务属性高,更容易暴露在纠纷和网络攻击的风险中。以医生群体为例,抖音对这一领域的网暴问题进行了更深度的复盘。“我们对150名医生的账号做了细致的分析,发现每个人的情况都不同。”例如,一位做肺移植的医生,他发布的科普视频下会被一些极端网友揣测"是不是器官买卖"。他解释过肺移植的伦理审查流程,也说过器官捐献的法律规定,但质疑声从未消失,在权威科普面前总有人更愿意相信“阴谋论”。
2025年8月,河南周口六院的妇产科邵医生坠楼事件在网上引发广泛关注。据家属介绍,邵医生生前曾持续遭受患者及家属的网络攻击。随着事件发酵,抖音公布了对相关账号的核查情况:在7个月的时间里,三组家属账号发布了89条与医疗纠纷相关的视频,其中多数内容均因违反平台规则,在发布后即被处置。
而诸如此类案例凸显了平台治理的困境:平台可以基于明确的规则(如辱骂、人身威胁、隐私泄露)进行处置,但很难去裁决这种介于“维权”与“骚扰”之间的行为。
尽管如此,抖音依然在尽力构建一个多层次的防护体系。一是赋能用户,推出“一键防网暴”功能,允许用户快速关闭陌生人评论、私信、@等,并提供批量侵权举报工具;二是提供外部支持,联动第三方机构,为用户提供免费的法律咨询;三是探索主动识别,正如AI被用于主动识别谣言,抖音也正尝试利用AI大模型的研判能力,更早地发现潜在的网暴受害者,以便提前介入,降低悲剧发生的可能。
例如,在“河南郑州续面事件”事件中,平台对当事人双方下发防网暴提醒,积极处置网暴、地域攻击、谣言、阴谋论内容。
“即便这是一个复杂的社会问题,不全是平台的责任,但只要事情发生在抖音上,我们就觉得有责任和义务去改善它。”李翔宇说。
这或许正是大型平台在当下社会中所扮演角色的真实写照:它无法解决所有问题,但它无法回避问题。在技术狂奔之后,治理的终极挑战,依然是如何与人心、与社会的复杂性共处。
换句话说,平台治理的终极形态,并非一个可以一劳永逸的“解决方案”,而是一场在效率与公正、秩序与活力、表达与伤害之间不断寻求动态平衡的永恒考验。
采访临近结束,李翔宇对第一财经透露,2026年的重点工作中,争议热点事件管理的优先级被提升了。此外,平台还将继续探索AI在治理中的应用,比如识别潜在网暴受害者、提前介入保护。根据抖音最新公布的2026年10项新举措,平台将优化推荐算法,从内容和评论等多维度治理“愤怒诱饵”。为倡导理性社区氛围,抖音还将强化争议热点研判,鼓励、引导理性讨论。
对于抖音和所有内容平台而言,这场关于安全与信任的“深水区”探索,才刚刚开始。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.