央视前两天报了一条消息,看完我愣了好一会儿。
新一代AI换脸技术,只需要一张照片,就能在实时视频通话中完成换脸。延迟是毫秒级的。表情跟得上,嘴型对得上,头动、眨眼、皱眉,全都自然到你盯着看都不一定能发现问题。
一张照片。实时的。毫秒级。
![]()
我反复确认了三遍,不是预先录好的视频,不是后期处理的素材,是正在进行的视频通话里,对面那个人的脸,可以是任何人的脸
这事儿的恐怖程度,很多人可能还没反应过来。
这不是科幻片的桥段
两三年前DeepFake刚出来的时候,大家的反应更多是猎奇。换脸视频糊得一塌糊涂,光线一变脸就扭曲,嘴巴和声音永远差那么零点几秒。那时候大家觉得,哦,挺好玩的,但一眼就能看出来是假的。
后来AI语音合成跟上了。去年有不少案例,骗子用AI克隆家人的声音打电话,说急事要转账,有人真的被骗走了几十万上百万。那时候大家开始慌了,但还留着一个底线的安全感。
- 没事,打个视频确认一下就行了。视频总不能造假吧?
现在这条底线也没了。
你想想这个场景。你妈给你打视频电话,画面里就是她的脸,她的表情,她说话的节奏,她跟你聊了两分钟家常,然后说最近身体不太好,需要一笔钱做检查。你会怀疑吗?
大概率不会。
因为我们几千年来建立的信任体系,最底层的一条就是「眼见为实」。声音可以模仿,文字可以伪造,但一个活生生的人出现在你面前,脸对脸地跟你说话,这是人类认知系统里最后的锚点。
现在这个锚点被拔掉了。
造假这件事,一直在升级
回头看,这条路走得其实挺清晰的。
![]()
九十年代Photoshop普及,修个照片就能上报纸头条,闹出过不少假新闻。后来大家学聪明了,开始看EXIF信息、查像素边缘,各种鉴伪工具跟上来了。
再后来是音频。录音剪辑、变声器、AI语音合成,一步步迭代。每次造假技术升级,检测手段就追着跑,追上了,消停一阵子,然后新的造假方式又冒出来。
这是一个螺旋。造假,防伪,再造假,再防伪。
但这次不太一样。
之前每次升级,至少有一个「退路」。照片假了看视频,音频假了打视频。每次都还有一个更高维度的验证方式兜底。
实时视频换脸把这个退路堵死了。你往哪退?总不能说,以后确认身份得线下见面,还得捏一下对方的脸看看是不是硅胶面具吧。
说到硅胶面具……算了不展开了,再说就成恐怖片了。
谁在开心,谁在倒霉
有意思的是,围绕这个技术,不同人的利益完全不一样。
造假者是最直接的受益方。诈骗门槛断崖式下降,以前搞一个换脸视频要专业设备、要算力、要时间,现在一张照片加一个工具就够了。勒索、造谣、伪造证据、生成不雅内容,每一条都是真金白银的灰色产业。
平台方的处境很微妙。一方面它们在技术竞赛里推动着这些能力的进步,另一方面又不得不承担内容审核的压力。这里面的矛盾,大家都心知肚明,我就不多说了。
普通人是最惨的。隐私风险加大了,财产风险加大了,但最要命的是一个隐性成本的飙升——信任成本
以后每接一个视频电话,你脑子里可能都要先闪过一个念头,这人是真的吗?
跟朋友、跟家人、跟同事,每一次视频沟通都多了一层怀疑。这种怀疑不需要真的遇到骗子才产生,光是「知道这个技术存在」就够了。
这才是最大的伤害。
法律和技术检测呢?
坦率讲,跟不上。
现在的监管框架还在处理上一代的问题。AI生成内容的标注、深度伪造的法律认定、受害者的举证责任……每一项都还在讨论阶段。而技术这边,毫秒级换脸意味着实时检测的难度是指数级上升的,你总不能让每个视频通话都先过一遍AI鉴伪系统吧。就算能,延迟和隐私问题又是新的坑。
有人可能会说,以前每次技术升级,最后不都追上了吗?
没错。但追上的那段空窗期里,倒霉的都是普通人。
![]()
而且这次的空窗期可能格外长,因为生成式AI的进化速度,和之前任何一代造假技术都不在一个量级上。PS迭代是按年算的,DeepFake迭代是按月算的,现在这些实时换脸模型的迭代,按周算都不夸张。
检测技术跑得再快,它的逻辑是「找破绽」。但当破绽越来越少、越来越细微,找破绽这件事本身就在逼近极限。
真正让人不安的,不是技术
我一直在想,为什么这条新闻让我的不适感比以往任何一次AI进步的新闻都强。
不是因为它能骗钱。骗钱的手段一直都有,电信诈骗也不是新鲜事。
是因为它动摇的东西太根本了。
人和人之间的信任,是一层一层搭起来的。文字信任、声音信任、面对面的信任。每一层都对应着一种确认「对方是真人」的方式。现在这些层一层层被击穿,我们在认知上就会进入一种很难受的状态。
心理学上有个说法叫「基本信任感」,是人格发展最早期形成的东西。婴儿通过和养育者的互动建立起「世界大体上是安全的、可预测的」这个基本假设。所有后续的社会关系都建立在这个假设之上。
- 当眼见不再为实,这个假设就裂了一条缝。
你不需要真的被骗过,光是「你看到的任何人脸都可能不是本人」这个认知,就足以改变你和整个世界打交道的方式。
更警惕。更怀疑。更疲惫。
这种状态有个很难听的名字,叫泛化的不信任。原本只需要对陌生来电保持警惕,现在连熟人视频都要打问号。信任的默认值从「先相信」变成了「先怀疑」。
一个社会的信任默认值一旦翻转,所有的交易成本、沟通成本、情感成本都会飙升。这笔账没人算得过来。
我没有解决方案
写到这里我得老实说,我不知道怎么办。
有人说靠技术反制,搞数字水印、搞活体检测、搞区块链身份认证。这些方向都对,但哪个都不是短期能铺开的。有人说靠法律严惩,判例确实在出,但立法永远是事后的。有人说靠教育,让大家提高防范意识。这话没错,但你让一个六十多岁的老人去判断视频通话里的子女是不是AI生成的,这现实吗?
我能想到的最诚实的建议,可能就是跟家人约一个暗号。一个只有你们知道的词,或者一个奇怪的问题,视频通话里先确认一下。
很土。但可能有用。
AI越真,世界越假。
当连视频通话都不能信了,我们丢掉的不是某一项技术的可靠性,是人和人之间那层薄薄的、脆弱的、本来就不太经得起折腾的信任。
昨天刷到一条评论,有个人说,“以后我妈给我打视频,我得先让她转三个圈我才信是她。”
底下一堆哈哈哈。
![]()
但笑完之后,没人接话了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.