![]()
AI生成内容泛滥引发平台治理难题
2026年2月23日,科技媒体The Verge发布报道指出,尽管多家科技公司已采用内容来源认证标准C2PA,但网络平台上的AI生成虚假内容(AI slop)仍呈泛滥之势。Instagram负责人亚当·莫塞里此前曾公开表示,AI技术使“真实性变得无限可复制”,对依赖真实连接的内容创作者生态构成威胁。
C2PA认证体系存在实施缺陷
由Adobe、英特尔、微软等公司于2021年联合创立的内容来源和真实性联盟(C2PA)标准,旨在通过为原始媒体添加加密元数据来验证内容来源。Meta于2024年9月加入该联盟指导委员会,承诺推广这一标准。然而在实际应用中,该标准存在明显局限:普通用户需要主动通过浏览器插件或专用网站手动验证内容,且元数据容易被意外或故意移除。Instagram的“AI信息”标签在移动端和网页端显示不一致,部分平台甚至无法可靠识别带有C2PA元数据的内容。
科技公司面临商业利益与治理责任冲突
报道指出,推广C2PA标准的科技公司同时也在大力发展生成式AI工具,存在明显的利益冲突。Meta正在为Instagram、Facebook和WhatsApp开发需付费订阅的AI功能,YouTube鼓励创作者使用谷歌AI模型进行视频制作,而OpenAI则通过ChatGPT和Sora的订阅服务获得主要收入。现实防御公司CEO本·科尔曼批评称,平台之所以接纳AI生成内容,是因为这类内容能引发争议、提升用户参与度,从而增加广告展示机会。
行业探索替代性解决方案
面对C2PA标准的局限性,部分平台开始探索新的治理路径。莫塞里表示Instagram未来可能需要转向“关注谁在发言,而非发言内容本身”。YouTube在处理特定暴力事件相关视频时,已尝试优先推送权威新闻来源,并在搜索结果显示文字新闻摘要。然而这些措施仍面临挑战,例如谷歌被曝用经常不准确的AI摘要替代新闻标题。
专家指出根本性矛盾尚未解决
Adobe内容真实性高级总监安迪·帕森斯承认C2PA“并非万能解决方案”,只能解决部分类别的问题。科尔曼强调,完全依赖水印或标签系统的前提是恶意AI内容仅通过少数特定工具生成,但这种假设“绝对是错误的”。研究显示,透明度警告可能不足以防止AI深度伪造内容造成的危害,目前缺乏实证证据支持AI透明度措施的有效性。
报道基于The Verge于2026年2月23日发布的科技分析文章,内容经过事实核查与信息整合。
参考链接:
https://www.theverge.com/ai-artificial-intelligence/882956/ai-deepfake-detection-labels-c2pa-instagram-youtube
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.