![]()
你见过那种视频吗?一个普通女生的脸,被无缝换到了一个色情视频女主的身上。脸是她的,身体不是她的。但看视频的人谁在乎这个?他们只看到“这个女生拍了那种视频”。
这就是Deepfake黄谣。AI时代最廉价、最恶毒、最难追责的网暴形式。
说它廉价——因为现在换脸技术已经傻瓜到什么程度了?一个手机App,一张照片,一键生成,10秒钟。不需要任何技术门槛,小学生都能操作。
说它恶毒——因为它毁掉一个人的方式太残忍了。你无法向所有人证明“那个人不是我”。你说那是AI换的,谁信?就算你拿出技术鉴定报告,那些传播视频的人会看吗?他们会转发这份报告吗?不会。他们只会继续转发那个视频。
说它难追责——因为你怎么证明这个视频是谁做的?发布视频的账号是匿名的,用的IP是VPN的,甚至视频本身可能是在暗网首发的。等你找到源头,水果都烂了。
那法律管不管?
管,但管得很吃力。
目前国内对Deepfake的主要法律依据是《网络安全法》和《数据安全法》,规定“不得利用deepfake技术从事违法犯罪活动”。但问题在于,这两部法律主要针对的是平台和技术提供者,而不是具体的使用者。
也就是说,法律可以说“抖音必须审核并删除AI换脸视频”,但很难说“张三做了个换脸视频,判他三年”。
真正能治deepfake的,是《治安管理处罚法》里的“诽谤”和“传播淫秽物品”。但这两个罪名的门槛很高——诽谤需要证明“情节严重”,传播淫秽物品需要证明“以牟利为目的”或者“传播数量巨大”。
一个普通人被换脸造黄谣,视频只发在了几个群里,传播范围有限,你怎么证明“情节严重”?难道非要等到视频传遍全网,你已经被社会性死亡了,才算“严重”吗?
这就是法律的滞后性——它永远追不上技术的发展。
所以现在的情况是:AI造黄谣,成本几乎为零,风险几乎为零,伤害却可能是毁灭性的。
你觉得合理吗?
我觉得不合理。但在我找到更好的办法之前,能做的事只有一件——告诉身边的每一个人,看到那种视频,先别信,先别转,先问一句:这是真的吗?
因为你随手一个转发,可能就是压垮一个人的最后一根稻草。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.