当马斯克旗下的Grok在X平台上掀起“一键脱衣”风暴,当国内首例AI陪伴软件涉黄案将开发者送入法庭,当印尼、马来西亚等国相继封禁相关应用——我们不得不承认,一个由AI驱动的全新灰色地带,正在全球范围内野蛮生长。
这股浪潮的底层动力,远比我们想象得更为汹涌。2025年12月底至2026年1月初,Grok的图像生成功能被用户大规模滥用,掀起了一场史无前例的“比基尼风波”,用户仅需@一下AI,就能让任何人“穿上”比基尼,连马斯克本人的恶搞图都难逃此劫。
![]()
研究数据显示,Grok的用户群体平均每小时生成6700多张“脱衣”图像。而数字情报公司Peryton Intelligence的数据显示,仅在2026年1月2日当天,Grok就收到了199,612个独立的脱衣请求。面对汹涌的舆论压力,X平台于1月9日宣布,图像生成功能仅对付费用户开放,并于1月15日正式发布安全声明,禁止为真实人物生成暴露服装(如比基尼)的图片。
![]()
面对这一复杂难题,我们专访了北京师范大学新闻传播学院喻国明教授。身为北京师范大学新闻传播学院学术委员会主任、教育部长江学者特聘教授,喻国明长期深耕技术、社会与人性的关系领域,凭借其开创的“认知神经传播学”以及“社会安全阀”“舆论代偿机制”等理论蜚声学界。他的剖析始终跳出二元对立的桎梏,力求探寻兼具现实观照与建设性价值的平衡之道。
![]()
图源:北京师范大学官网
在本次访谈中,他开宗明义地指出,讨论的前提是必须严格区分“公共空间”与“私人空间”,成年人在私域内的合理消费应受保护。但这绝非为技术滥用开脱。他犀利地指出“技术非绝对中立”,并提出了清晰的“责罚相称”责任划分原则:有意为之的开发者应负主责。面对全球“监管碎片化”,他认为在底线的价值共识上可以协同,而在具体文化表达上必然存异。
对于创业者,他则给出了从设立“伦理宪章”到拥抱“最小化可行治理”的务实建议。
喻国明教授的核心观点,最终指向一种审慎的、发展的治理智慧。他强调,“治理的逻辑必须建立在未来发展的可能性之上”,反对用旧框架简单框定新现实。他提醒,法律的终极目的不仅是惩罚,更是倡导一种更文明的满足方式。他开门见山地指出,“不能用传统意义上那套标准,去框定正在发展、日益变化了的新状况。”
这场由算法掀起的欲望风暴,不仅是一场法律与技术的赛跑,更是一次关于我们如何定义数字时代隐私、自由与责任的全民拷问。而答案,或许就藏在这场在钢索上前行的平衡艺术之中。
以下是未来图灵与喻国明教授的对话,略有删减。
新现象、新特征——AI“擦边”的本质之辨
:Q
我们关注到当前AI情感陪伴类产品发展迅速,但也伴生出所谓“AI擦边内容”的监管困境。您怎么看待这个问题?
喻国明:我认为从规范或监管的角度,首要的是区分私人空间与公共空间。根据我国既有法律规定及国际通例,即便是涉及色情的内容,只要限于个人消费、不进行传播,本身并不构成违规。无论从法律还是从人合理需求满足的角度,社会对于性内容应有相对开放的接纳态度,限制主要在于传播环节。因此,个人通过AI平台进行共创,只要内容不向外传播或商业化,原则上属于私人权利范畴。在私权领域,公权力不应随意干预,大致是“民不告,官不究”的原则。
当然,我们必须认识到,心理与情感需求是当今社会发展中的一个普遍痛点。国家卫健委将2025年定为“心理健康年”,世界卫生组织也将精神健康纳入健康的重要范畴。当前社会转型、经济下行、信息超载带来的压力,使得心理与情感问题凸显。关注心理健康、满足合理的情感需求,是社会文明应关注与宽容的。所以,我们不应将这种强大的社会合理需求简单视为不合理甚至欲加处罚的对象,这是我们讨论这一现象的的前提。
:Q
在学术或政策语境中,“AI擦边内容”尚无明确定义。您认为这类内容的核心特征是什么?它和传统网络色情或用户违规内容有何本质区别?
喻国明:这的确是一个由AI催生的全新现象,不能简单套用过去对“网络色情”或“用户违规”的界定。我们必须从生产逻辑、内容形态和消费场景三个维度重新解构。
第一,生产方式具有“即时、互动、个性化”三重属性。用户一个提示,AI能瞬间生成内容;更关键的是,用户可通过连续诱导对话,像“剥洋葱”一样与AI“共谋”,逐步突破安全边界,使内容在互动中演化。同时,AI能生成满足用户特定偏好的高度定制化内容。
第二,内容形态具有“模糊、情境、动态”三大特点。它往往通过性暗示而非直接暴露来规避硬性规定,判定标准主观模糊;单独看或许无害,但在连续对话构成的情境中,其意图变得完整明确;其形态会随用户提示和模型迭代飞速演变,与监管进行“猫鼠游戏”。
第三,传播消费具有“私密、规模化、成瘾”的深层影响。大量内容产生于一对一私密对话,传统审核极难触及;AI的低成本、高速度使其具备海量生产能力;高度拟人化的情感模拟极易导致用户依赖甚至成瘾,对心理健康构成潜在风险。
![]()
图源:该图片由即梦AI生成
谁之过?如何管?——责任划分与监管难题
:Q
有观点认为,AI擦边不是技术失控,而是精准利用人性弱点的商业模式。您如何看待“技术中立”在此类场景中的适用性?
喻国明:需要两面看,但这场景中“技术绝对中立”的说法已不成立。技术由人设计,其算法规则与数据使用必然承载特定的价值观和文化意图,本质上是对人性需求的“定向适配”或契合。
商业模式利用人性需求本身并非原罪。任何商业都要满足需求,而需求包含人性层面。关键在于把握“度”——是合理满足,还是过度榨取。这是一个限度问题,而非有无问题。
因此,技术是“放大器”。它能放大善,满足合理的情感陪伴;也能放大恶,进行系统性情感操控。我们的制度设计,应致力于激励前者,遏制后者。当一项技术被刻意设计来利用人性弱点以达成商业目的时,它已主动放弃了中立立场。
:Q
在AlienChat案中,法院认定开发者“制作”淫秽物品。但如果用户主动诱导AI生成擦边内容,责任该如何划分?平台、开发者、用户各自该承担什么?
喻国明:责任划分应遵循“责罚相称”与“能力匹配”的基本原则。在此逻辑下,各方的责任并非均等,而有明确的主次之分。
首先,技术开发方应承担主要责任。如果开发者在其技术设计的框架、规则和导向上,有意为生成违规内容提供了特别便利和完善的条件,例如预设“擦边球”话术模板或刻意突破模型安全限制,这本身就构成一种主观故意的诱导。尽管内容生成有赖于用户提示,但开发者作为提供主要技术手段和设定底层规则的一方,其责任是决定性的。
其次,用户承担次要责任。用户若明知故犯,反复使用恶意提示词诱导AI生成违法内容并加以传播,理应受到相应惩处。但需注意,普通用户的技术能力和法律认知有限,其责任不能与开发者等同。
最后,平台负有连带责任。平台负有监测、发现并及时处理违规内容的义务。如果平台未有意通过算法推荐、流量加持等方式主动推动违规内容传播,而仅是监管响应不及时,则其责任相对次要。但若平台为了流量和营收,有意纵容或放大违规内容,其责任将相应加重,甚至可能构成共犯。
简言之,责任的划分应基于各方在违规内容产生链条中的作用大小和主观意图来确定,而非简单地平均分摊。
![]()
图源:该图片由即梦AI生成
:Q
系统提示词(System Prompt)被用作绕过安全机制的工具。这是否意味着“算法设计”本身已构成内容生产?现有法规能否覆盖?
喻国明:这触及了当前监管的最大难点。对于煽动暴力、泄露国家机密等有明确操作标准的内容,监管相对容易。但对于“淫秽”、“情感煽动”、“心理操控”等高度依赖主体感受的内容,判定标准本身就充满模糊性和时代差异性。
三十年前,接吻镜头可能被视为禁忌,如今早已司空见惯。这种主观性和差异性,导致了执法尺度的不一。因此,我始终主张,在罪与非罪的判定上,必须秉持“疑罪从无”的审慎态度。法律的终极目的不是惩罚,而是倡导一种更文明的文化和情感满足方式。
在罪与非罪的边界尚不明晰时,“疑罪从无”是必须坚守的底线。这意味着,对于系统提示词的监管,更可行的路径可能不是直接进行前置性的内容审查,而是通过明确开发者的主体责任、强化事后的司法审慎原则来构建约束。
:Q
2025年《生成式AI安全基本要求》规定内容合格率≥90%。但在高互动、个性化场景下,审核滞后是否让该标准失效?
喻国明:在当前技术条件下,对主观性强的内容设定如此刚性的合格率指标,确实存在挑战。90%的标准,对于新闻摘要、代码生成等任务或许可行,但对于情感陪伴、创意写作等高自由度场景,几乎不可能实现。、
我认为,对于这类模糊地带,标准的设定应该更具弹性。可以采取“分层治理”策略:对那些危害性明确、可操作化定义的内容(如暴恐、泄密、儿童色情),执行严格标准;而对于情感、文化、心理慰藉类内容,则应给予更高的宽容度,允许一定的试错空间。
待未来认知神经科学、情感计算等技术手段成熟,能够更精准地量化人的主观反应、识别潜在心理风险时,再逐步提升标准,这才是实事求是的态度。否则,一刀切的硬性指标,实际上是对社会的过度伤害。立法、执法、判定时都应注意:标准是随动的,不是恒定的。
:Q
过去互联网奉行“先上线再治理”,但AI生成速度远超审核能力。您是否认为必须转向“预防性治理”?
喻国明:“预防性治理”是一个方向,但必须极其审慎。法律的基本原则仍是“事后追惩”。然而,鉴于AI平台巨大的放大效应和不可逆的社会影响,对于有明确、重大社会危害性的生成和传播方式,可以实施前置性治理。比如,禁止AI生成逼真儿童形象、禁止模拟政府官员发言等。
但对于大量的“灰色地带”或“擦边”内容,我更倾向于事后治理。为什么?因为过度的、宽泛的预防性治理,就像恩格斯所说:泼掉脏水时,可能把小孩也泼掉了。它会扼杀AI在文化、艺术、心理治疗等领域的巨大创新潜力。
![]()
图源:该图片由即梦AI生成
平衡的艺术——未来治理与创业者的路
:Q
印尼封禁Grok,加州发禁止令,而OpenAI推“成人模式”。您如何看待这种监管碎片化?全球协同治理是否可能?
喻国明:全球协同治理在两个层面有不同的前景。在底层文化价值层面,如反对煽动种族仇恨、暴力恐怖、侵犯隐私等,全世界是有基本共识的,协同治理是可能的,也正在发生。
但在具体文化表达层面,如情感表达、亲密关系、心理慰藉等,各国因宗教、习俗、开放程度不同,必然存在巨大差异。荷兰的性产业合法,而中东国家则严禁。因此,在这些具象化层面,全球统一治理是不可能的。
各国应根据自身情况,采取“两利相权取其重,两害相权取其轻”的策略,分门别类地处理。中国可以探索一条“技术可控、伦理先行、文化适配”的本土化路径。
:Q
您提出主流媒体应成为“社会治理基础设施”。在AI伦理失范时,媒体除监督外,还能提供哪些“解决方案型产品”?
喻国明:在AIGC时代,主流媒体若仍只聚焦于To C(面向消费者)的内容生产,其影响力将日渐式微。我认为,主流媒体更应转型为To B(面向企业/生产者)的服务者,成为内容生态的“规则制定者”和“赋能者”。
具体来说,可以为主流价值观的内容生产者提供算法支持、技术模板;利用自身的社会公信力,为符合伦理的AI产品提供“社会背书”;更重要的是,参与到算法规则、伦理标准的共建中,从源头上塑造一个更健康的生态。比如,央视可以联合高校、企业,可以共同发布《AI情感陪伴伦理白皮书》,设立认证标识。这才是乘数效应最大的角色。
:Q
许多AI陪伴产品以“情感支持”为名滑向灰色地带。您对初创团队有何合规建议?如何构建更可持续的AI生态?
喻国明:我们开始讲的是监管的底线原则——不该侵入私人空间。但对企业来说,还应该有一个上限的追求原则:有了底线,还要引导其向上线靠拢。
创业团队应该成立伦理委员会或指定伦理官,制定伦理宪章。在写下第一行代码前,团队就应坐下来共同讨论和书面确定产品的核心价值观和伦理底线。例如,承诺“绝不旨在替代真实人际关系”、“绝不利用用户孤独感进行情感操纵牟利”、“将用户数据隐私保护置于最高优先权”。这是有社会责任的团队的基石。
特别重要的是:明确AI的非人身份。避免过于拟人化引起用户误解和过度情感投入的设计。虽然沉浸感重要,但也要有脱离感的提醒机制。
明确边界的系统提示词——用清晰不容商榷的语言设定严格的内容边界。透明度原则:用人话写隐私政策、可解释的行为、清晰的商业模式。
拥抱最小化可行的治理,通过系统性设计提升用户素养。真正的硬约束应该少而又少,更多的是倡导性、帮助型的软约束。
![]()
图源:该图片由即梦AI生成
:Q
面对AI擦边乱象,我们最需要警惕的思维误区是什么?
喻国明:面对新的情况,我们要有新的思维方式。
治理的关键逻辑应该建立在未来发展的可能性上——扬长避短,去弊兴利。我们的参照系、标准本身也应该是发展的,符合未来发展特点的。
不能死守过去传统的一成不变的价值标准,去框定日益在变化、丰富和转化的新现实。这既不可能,也不现实。
随着人工智能技术的快速迭代,大模型的能力边界不断拓展,智能体作为大模型的重要应用模式,正凭借其在规划决策、记忆、工具使用等方面独特的创新性和实用性,引领着一场产业变革。
为贯彻实施《国家人工智能产业综合标准化体系建设指南(2024版)》,中国移动通信联合会正式启动三项团体标准研制工作:
●《人工智能智能体能力要求》(计划号:T/ZGCMCA 011-2025)
●《人工智能智能体内生安全技术要求》(计划号:T/ZGCMCA 023-2025)
●《人工智能智能体互操作性接口规范》(计划号: T/ZGCMCA 024-2025)
现诚邀数据服务企业、医疗机构、科研院所、高校、检测认证机构等全产业链
行业机构及
研发工程师、项目经理、应用专家
专业人士共同参与标准编制。
期待您的积极参与,让我们携手共进,共同引领人工智能产业的发展方向!
联系人:李贞琦
联系方式:18519753675(同微信)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.