文/支京阳
近日,央视调查发现,一些网络平台上出现了专门利用生成式人工智能制作涉黄内容的灰色产业链。有商家公开兜售“AI生成色情视频”的教程和提示词,声称只需一张图片、几句描述,就能生成大尺度视频。随着调查展开,一条从教程售卖、提示词交易到软件引流、付费生成的灰色链条逐渐浮出水面。
![]()
生成式AI本质上只是一种工具,它可以辅助写作、生成视频、整理数据,还能编程、设计、翻译、教育辅导、医疗辅助、科研模拟,覆盖了人类智力活动的方方面面。但是与此同时,它还可以被人用于制造虚假信息、色情内容甚至侵权视频。
我们对AI的感情其实相当复杂,既惊叹于它带来的创造力和效率提升,又担忧它被嵌入灰色产业链后失控的风险。正因为这种复杂情感,可见技术本身不带有价值倾向,但它的使用方式和后果始终牵动着社会的神经。
因此,技术可以中立,治理绝不能中立。在技术快速发展的背景下,仅仅依靠技术自律远远不够。面对能力越来越强的技术,我们一定要建立起与之匹配的规则、责任和防线。
科技史学家克兰兹伯格在研究技术与社会的互动关系时指出,“技术既不好也不坏,但它也不是中立的”。在他看来,技术的影响方向从来不由技术自身决定,而是取决于制度、利益和监管结构。因此如果缺乏明确的边界约束,技术能力往往会被最先逐利的一群人利用。AI大模型本身不会天然趋向负面,但如果平台审核松散、提示词交易泛滥、引流和变现链条公开存在,技术能力就会迅速被牟利逻辑接管。
这并不是新问题,只是以新技术的形式重演。摄影术出现后,偷拍和淫秽影像传播随之而来。互联网普及初期,色情网站和盗版内容一度成为全球网络治理难题。进入深度伪造时代后,风险进一步升级。
![]()
视频编辑技术成熟后,网络空间出现大量利用深度伪造技术“换脸”面孔的色情视频,随后深度伪造色情也成为治理议题。而过去需要拍摄、剪辑和传播制作一段色情视频,现在只需一张图片、一段提示词,甚至几句隐晦表述,就能生成带有性暗示甚至直接露骨的影像。
技术在更新,但规律没有变。凡是能够降低生产成本、提高传播效率、增强沉浸体验的工具,都会最先吸引逐利者和越界者。也正因此,技术创新从来不能只讲能力提升,也必须同步讲边界和责任。
从现实看,当前多数国产生成式AI产品都已经设置了较严格的安全拦截机制。用户输入明显涉及色情、暴力、违法内容的提示词时,系统通常会直接拒绝生成,并提示内容不合规。百度文心一言、阿里通义千问、腾讯混元等产品在公开使用中,都表现出这类安全限制。2023年施行的《生成式人工智能服务管理暂行办法》也明确要求,提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德。这说明,国内治理思路已经很明确,不是等风险扩散后再处理,而是把部分边界前移到模型和平台层面。
![]()
然而,新闻调查也表明,部分灰色产业绕开这些治理措施。一些教程专门教授如何通过隐晦提示词、英文替换、离线部署等方式规避审核。部分境外AI应用由于缺乏本地监管,尺度更大,一些不法人员甚至通过社交平台传播下载渠道并进行引流牟利,这也给治理带来新的挑战。
平台不是简单的通道,还是规则制定者、流量分配者和风险放大器。开发者也不能只强调能力突破,而回避高风险场景中的防范义务。对教程售卖、提示词交易、灰色引流和跨境软件下载,同样不能放任其在平台角落野蛮生长。只有把开发者、平台、传播者和经营者都纳入责任链条,技术治理才不至于停留在口号层面。
技术可以中立,治理不能中立。AI涉黄考验的不是模型有多聪明,而是社会有没有能力给聪明的技术装上清晰的边界。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.