There’s One Easy Solution to the A.I. Porn Problem
2026年1月12日
![]()
插图:Rebecca Chew/《纽约时报》
本文作者:Pfefferkorn 女士是斯坦福大学以人为本人工智能研究所的政策研究员。
圣诞前夜,埃隆·马斯克宣布,他旗下公司 xAI 的人工智能聊天机器人 Grok 将新增图像和视频编辑功能。然而不幸的是,此后许多 xAI 用户要求Grok 编辑真实女性甚至儿童的照片,比如把她们的衣服脱到只剩比基尼(或者更糟糕的程度)——而 Grok 也经常照做。
由此引发的大量性暗示图片目前正受到全球监管机构的调查,他们怀疑这些图片可能违反了有关儿童性虐待材料和非自愿性行为图片的法律。印度尼西亚和马来西亚已选择暂时屏蔽Grok。即使许多生成的图片并未触犯法律,它们仍然引发了众怒。尽管从周四开始,这款聊天机器人已开始限制部分人工智能生成图片的请求,仅允许高级功能订阅用户使用,但Grok的这项新功能仍然可用,这与去年夏天Grok自称“机械希特勒”后xAI迅速采取的干预措施形成了鲜明对比。
像xAI这样的AI公司不仅应该在模型出现不良行为时迅速果断地做出反应,而且应该从一开始就防止此类内容的生成。这意味着要对模型进行严格的测试,以了解它们如何以及为何会被操纵生成非法色情内容,然后堵上这些漏洞。但现行法律未能充分保护善意的测试人员免遭起诉,也未能正确区分他们与恶意用户,这使得公司不敢采取此类行动。
作为一名曾在硅谷一家大型律师事务所从事互联网法律工作的科技政策研究员(我的客户包括X Corp.的前身Twitter公司,当时距离马斯克收购该公司还有数年时间),我和我的同事发现,人工智能公司面临的法律风险阻碍了它们竭尽所能地保护其模型免遭滥用,例如被用于制作儿童性虐待材料。目前正在发生的Grok丑闻迫切凸显了国会必须为人工智能开发者扫清障碍的必要性,使他们能够更全面地测试其模型,而无需担心落入法律陷阱。
尽管未经同意的深度伪造图像问题由来已久,但生成式人工智能的出现极大地加剧了这一现象。如今,制作令人作呕的图像不再需要精通 Photoshop 或熟练掌握开源模型;只需输入正确的文本提示即可。虽然开源模型和托管模型通常都内置了安全防护措施,但这些措施可能非常脆弱,恶意用户总能找到绕过它们的方法。
科技公司长期以来在是否以及在多大程度上允许用户访问合法的性内容方面存在着复杂的关系。(一些人工智能模型是用成人色情内容训练的。)报道显示,xAI 在过去一年中采取了一些措施来拥抱成人内容,包括允许用户与卡通化的性聊天机器人伙伴聊天,并且允许其模型创建露骨的色情内容(尽管目前尚不清楚是否有任何模型直接用此类内容进行过训练)。
但保护人工智能模型并非易事。即使训练数据中不包含任何儿童色情内容,一个同时使用无害儿童图像和成人色情内容训练的模型,也可能将这些概念结合起来,生成儿童色情图像。
成人色情内容的征集,与儿童性虐待材料不同,通常被视为受保护的言论,这引发了一个更棘手的问题。诚然,联邦法律和许多州法律现在都禁止未经同意的性图像(无论是真实的还是深度伪造的)。但并非所有“露骨”的图像都符合法律标准,早期一些要求Grok脱掉女性照片上衣服的请求是双方自愿的,尽管大多数此类请求并非如此。
未经同意的性图像和儿童性虐待材料会损害公司声誉,并使其面临潜在的法律责任。特朗普总统去年五月签署的《删除法案》(Take It Down Act)意味着科技公司很快将被要求在接到请求后立即删除未经同意的性图像,而且根据现行法律,它们并非免于承担联邦刑事责任。联邦政府曾警告称,人工智能生成的儿童性虐待材料属于非法行为。在Grok事件后,联邦政府重申“极其重视人工智能生成的儿童性虐待材料”,并将起诉任何此类材料的制作者或持有者。
然而,具有讽刺意味的是,联邦法律反而使人工智能模型的安全更加难以保障。
“红队演练”是指模拟敌对行为者的行为,以测试人工智能模型安全机制的有效性。红队可以是公司内部人员,也可以是外部人员,他们会尝试让模型生成恶意内容,例如恶意软件代码或炸弹制造指令。通过了解红队可以利用的漏洞和弱点,公司可以着手修复这些问题,以防止现实世界中的不法分子滥用模型。但儿童性虐待材料的情况则截然不同。制作和持有此类材料是严重的犯罪行为,即使是出于研究或测试目的,也绝无例外。
这使得针对儿童性虐待材料的红队测试在法律上风险极大,给人工智能公司带来了一个两难困境:是像恶意行为者那样竭尽全力让模型生成儿童性虐待图像,并冒着被刑事起诉的风险?(即使是为了防止恶意滥用而进行的善意测试,私下创建这些图像是否合理?)还是应该避免这类测试,并承担目前正席卷xAI领域的监管和公关危机?
立法者们已经开始意识到这一困境。就在两个月前,英国颁布了一项具有里程碑意义的法案,允许人工智能行业与儿童安全组织合作,确保进行严格的测试,而无需担心承担刑事责任。阿肯色州最近通过了一项禁止人工智能生成儿童性虐待材料的法律,其中包含一项针对善意对抗性测试的豁免条款——但这并不能替代一项全国统一的政策。在国会,一项两党共同提出的法案旨在限制人工智能开发者的责任,前提是他们遵循最佳实践来筛选训练数据中是否存在儿童性虐待图像——但这仅仅解决了部分法律风险。
为人工智能生成的儿童性虐待材料测试划定一个合适的法律安全港并非易事。除了显而易见的伦理问题外,还存在着这样的担忧:鲁莽的红队成员可能会无意中传播他们在测试中生成的人工智能图像;以及允许那些声称自己是红队成员的敌对势力逃避责任。此外,我与一些议员幕僚的讨论也表明,部分政客不愿被视为通过扩大人工智能公司的法律豁免权来向大型科技公司输送利益。
但我们并非首次面临这种情况。多年来,网络安全研究人员担心,如果他们负责任地测试并披露硬件和软件中的安全漏洞,就会被当作黑客惩罚。与此同时,由于担心恶意或疏忽大意的行为者会逃避责任,联邦政府始终未能通过针对这些研究人员的“安全港”立法。直到俄罗斯对手发动了毁灭性的黑客攻击,美国司法部才最终在2022年宣布了一项政策,禁止起诉出于善意的网络安全研究。也就是说,这项法律并没有阻止坏人,反而吓跑了好人,让他们不敢帮助阻止坏人,其结果可想而知。如今,人工智能领域也正在发生同样的情况。
我们不能再承受政府多年不作为的局面了。国会应该立即就Grok事件举行听证会,并着手制定法律保障措施,以负责任地测试用于检测儿童性虐待材料的人工智能模型。像xAI这样的公司本可以采取更多措施来提高其模型的安全性,而时间紧迫,刻不容缓。
本文出处:https://www.nytimes.com/2026/01/12/opinion/grok-digital-undressing.html
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.