以色列总理本雅明·内塔尼亚胡上个月发了条视频,想证明自己没被导弹炸死。结果评论区炸了——更多人认定他是深度伪造(deepfake,用AI生成的虚假音视频)。
他犯了什么错?光线 tricks 让他的右手看起来像有6根手指。这个细节成了"AI露馅"的经典标志。几天后他冲进一家咖啡店,举着双手笑呵呵地数手指:1、2、3、4、5。
专家告诉我,这是首位公开自证非AI的大国领导人,而且输得很难看。到现在还有大批人坚信他已经死了,顺便把我也划进了"掩盖真相"的阴谋名单。
我阿姨认识我30年,胜率90%
看到内塔尼亚胡的翻车现场,我决定做个实验。打电话给阿姨Eleanor,告诉她过几分钟会收到我的电话——但可能是真人,可能是AI克隆。
第一轮她挺自信:"真人说话起伏更大,AI太平了。"
第二轮我换了AI语音回拨。她沉默了很久。"刚才那次……更像人工的。"
也就是说,认识我三十年的亲人,在明确知道可能被欺骗的前提下,准确率只有90%——而且她把真人当成了AI,把AI当成了真人。
这还没完。几周前我在家庭群发了条Google隐私设置的链接,我妈立刻警觉:"怎么证明你是Tom不是骗子?说点骗子说不出来的。"
我憋了半天,回了句我们家的内部梗。她信了。但这种"社会认证"能撑多久?
当"自证清白"变成行为艺术
![]()
内塔尼亚胡的咖啡店视频犯了几个低级错误。专家Santiago Lakatos指出:光线差、角度单一、没有实时互动。这恰恰是AI视频最容易模仿的场景。
更讽刺的是,他越努力证明,越像AI。人类看到"完美自证"会本能怀疑——太干净了,干净得像渲染出来的。
我采访了多位深伪检测研究者,得到一份"活人认证指南":
第一,制造不可预测性。AI擅长回应,但不擅长主动制造混乱。内塔尼亚胡如果当场让店员随机说个数字,他重复一遍,可信度会高很多。
第二,暴露生理瑕疵。流汗、眨眼频率不规律、背景噪音里的随机咳嗽。AI视频往往"过于健康",像美颜开到满级。
第三,时间锚定。举起当天的报纸已经过时了,要展示实时信息——比如此刻Twitter的热搜榜,而且得是动态滚动状态。
但这里有个悖论:这些技巧公开后,AI训练数据里也会加入它们。今天的"活人特征",明天就是深伪的标配。
信任崩塌的连锁反应
深伪检测公司Reality Defender的CEO Ben Colman给我算了笔账:2024年上半年,他们检测到的合成语音攻击同比增长了900%。不是"大幅上升",是精确的900%。
更麻烦的是反向攻击。一位安全研究员告诉我,他已经遇到三起案例:真人被指控为AI,职业生涯差点毁掉。"比被冒充更可怕的是,你无法证明自己不是冒充的。"
内塔尼亚胡事件后,以色列反对派议员要求总理进行"线下公开露面"。你看,连"真人到场"都成了需要特别申请的可信度背书。
![]()
这让我想起阿姨实验后的对话。她问我:"如果以后视频通话都不能信了,我们怎么办?"
我说:"可能得约定一个暗号,只有家人知道的。"
她回:"那AI偷听了我们的电话呢?"
暗号也在失效
这个担忧不是 paranoid。GPT-4级别的模型已经能处理多轮对话上下文,家庭暗号在足够长的交互里会被试探出来。更狠的攻击是"深度上下文伪造"——AI不直接猜暗号,而是诱导你自己说出来。
我最后问专家:有没有绝对可靠的验证方式?
答案是物理接触。DNA、指纹、当面握手时的体温。但全球每天有数十亿次远程身份验证发生,不可能全部线下完成。
内塔尼亚胡的5根手指视频发布后,他的支持者在评论区刷起了"活着的总理"。反对派则剪辑了另一个版本:手指数量正确,但光影计算"过于完美",反而像Unity引擎渲染。
两个版本传播量差不多。真相的权重,第一次和阴谋论打成了平手。
实验结束我给阿姨发了条语音解释全过程。她回:"下次直接打视频吧,让我看看你的猫。"
我的猫上个月死了。这个细节,AI暂时还不知道。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.