![]()
(来源:麻省理工科技评论)
AI 驱动的虚假内容已经渗透到我们的网络生活中。有些案例引人注目,很容易辨别,比如白宫官员近期分享了一张经过篡改的明尼苏达州抗议者图片,并嘲讽那些提出质疑的人;另一些则悄然混入社交媒体信息流中,并迅速积累浏览量,例如俄罗斯影响力行动目前正在传播的一批视频,意图劝阻乌克兰人参军入伍。
正是在这样的乱局之中,微软向《麻省理工科技评论》分享了一份关于如何在网络上证明内容真实性的方案蓝图。
微软旗下一支 AI 安全研究团队近期评估了现有数字篡改记录方法,在面对当下最令人担忧的 AI 技术发展时的表现——例如交互式深度伪造内容,以及大众可轻易获取的超写实生成模型。研究团队随后提出了一套可供 AI 公司和社交媒体平台采用的技术标准。
要理解微软所倡导的这套最高标准,不妨设想这样一个场景:你手中有一幅伦勃朗的画作,正试图证明其真实性。你可以撰写一份详细的来源说明,记录这幅画的出处及每一次易手经过;你可以附加一枚肉眼不可见、但机器可识别的水印;你还可以对画作进行数字扫描,根据笔触生成一串数学签名,如同指纹一般。如果这幅画在博物馆展出,持怀疑态度的参观者便可通过核查这些证明,来验证作品是否为真迹。
上述方法目前已在网络内容核查工作中得到不同程度的应用。微软对其中 60 种不同的组合方案进行了评估,模拟每种配置在不同失效场景下的表现——涵盖元数据被剥离、内容被轻微改动,乃至遭到蓄意篡改等情况。研究团队由此梳理出哪些组合能产生可靠结果、可供平台放心向用户展示,哪些组合又因过于不稳定而可能带来更多混乱而非澄清。
微软首席科学官埃里克·霍维茨(Eric Horvitz)表示,推动这项研究的动力来自两方面:一是相关立法的推进,例如将于今年 8 月生效的《加利福尼亚州 AI 透明度法案》;二是 AI 技术将视频与声音以高度逼真的效果融合的发展速度。
“你可以称之为自我监管,”霍维茨对《麻省理工科技评论》表示。但他显然也将这项工作视为提升微软形象的契机:“我们同样希望成为那些想了解世界真相的人所青睐和信赖的服务提供商。”
尽管如此,霍维茨拒绝承诺微软将在其旗下所有平台上落实自己提出的建议。微软处于一个庞大 AI 内容生态系统的核心位置:它运营着可生成图像和文本的 Copilot;它管理着 Azure 云服务,客户可通过该平台访问 OpenAI 及其他主流 AI 模型;它拥有全球最大职业社交平台之一 LinkedIn;它还持有 OpenAI 的重要股份。然而,当被问及内部实施计划时,霍维茨在一份声明中表示:“公司各产品团队和负责人均参与了本次研究,以为产品路线图和基础设施建设提供参考,我们的工程团队正在就报告的研究结论采取行动。”
值得注意的是,这些工具存在固有局限:正如它们无法告诉你一幅伦勃朗画作的含义,它们也并非用于判断内容是否准确,它们只能揭示内容是否经过篡改。霍维茨表示,这一点他必须向立法者,以及那些对大型科技公司充当事实裁判持怀疑态度的人反复说明。
“这与判断内容真假无关,”他说,“而是通过标签告诉人们这些内容来自哪里。”
加州大学伯克利分校数字取证专家、教授哈尼·法里德(Hany Farid)未参与微软的这项研究,但他表示,如果行业采纳微软的方案蓝图,用篡改内容欺骗公众将变得明显更加困难。他指出,技术手段娴熟的个人或政府仍可设法绕过这些工具,但新标准能够消除相当一部分误导性内容。
“我认为这不能彻底解决问题,但确实能啃掉其中相当大的一块,”他说。
不过,也有理由将微软的做法视为一种略显天真的技术乐观主义。越来越多的证据表明,即便人们知道某些内容是 AI 生成的虚假信息,仍会受到影响。在一项针对涉乌克兰战争的亲俄 AI 生成视频的近期研究中,指出视频由 AI 制作的评论,其互动量远低于将视频当作真实内容对待的评论。
“有没有那种无论你说什么,都只相信自己所信之事的人?”法里德问道,“有。”但他补充说:“但我也认为,绝大多数美国人和世界各地的公民是想了解真相的。”
这种意愿并未真正推动科技公司采取紧迫行动。Google 于 2023 年开始为其 AI 工具生成的内容添加水印,法里德表示这对他的调查工作有所帮助。部分平台采用了 C2PA——微软于 2021 年参与推出的内容来源标准。但微软所建议的全套变革措施,尽管效力强大,一旦触及 AI 公司或社交媒体平台的商业模式,很可能只会停留在建议层面。
“如果扎克伯格和马斯克这样的人认为添加‘AI生成’标签会降低互动率,他们当然没有动力去这么做,”法里德说。Meta和Google等平台此前已表示将为 AI 生成内容添加标签,但 Indicator 去年进行的一项审查发现,其在 Instagram、LinkedIn、Pinterest、TikTok 和 YouTube 上发布的测试内容中,仅有 30% 被正确标注为 AI 生成。
更有力的内容核查举措或许将来自全球各地正在推进中的 AI 监管法规。欧盟的《AI 法案》,以及印度等地提出的相关规则,都将强制要求 AI 公司对 AI 生成内容进行某种形式的披露。
微软的优先议程之一,不出所料,是参与塑造这些规则。在《加利福尼亚州 AI 透明度法案》起草期间,微软积极开展游说工作。霍维茨表示,这使得法案中对科技公司披露 AI 生成内容的要求“更加切实可行”。
另一项优先议程则源于一种切实的担忧:如果内容核查技术的推广实施不当,后果将不堪设想。立法者正在呼吁能够核验真实性的工具,但这些工具本身十分脆弱。如果标签系统仓促上线、适用标准不一,或频繁出错,公众可能对其完全失去信任,整个努力将适得其反。正因如此,研究人员认为,在某些情况下,什么都不显示,可能好过给出一个可能有误的判断。
不完善的工具还可能催生研究人员所称的“社会技术攻击”的新途径。试想,有人取来一张真实的政治敏感事件图片,仅用 AI 工具改动其中极少量的像素。当这张图片在网络上扩散时,可能被平台错误地归类为 AI 篡改内容。结合使用来源追溯和水印工具,则意味着平台可以厘清该内容仅经过部分 AI 处理,并指出改动所在之处。
《加利福尼亚州 AI 透明度法案》将成为这些工具在美国的首次重大检验,但其执行可能面临挑战——特朗普总统去年底签署的行政令,旨在限制各州出台对行业构成负担的 AI 法规。特朗普政府总体上也对遏制虚假信息的努力持抵制立场,并于去年通过 DOGE 取消了与虚假信息相关的资助项目。当然,特朗普政府的官方渠道本身也曾传播经 AI 处理的内容(据《麻省理工科技评论》报道,美国国土安全部就曾使用 Google 和 Adobe 的视频生成工具制作面向公众发布的内容)。
我问霍维茨,来自这一渠道的虚假内容是否和社交媒体上的其他虚假内容一样令他担忧。他起初拒绝置评,随后表示:“各国政府从来不在散布各类操纵性虚假信息的主体之外,这是一个全球性现象。”
https://www.technologyreview.com/2026/02/19/1133360/microsoft-has-a-new-plan-to-prove-whats-real-and-whats-ai-online/
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.