黄晓明说谣言是AI造的,可没人信他,声音脸孔被偷走后,真话反而像假话
2026年2月,黄晓明在节目里提到“豪赌输掉十亿”这个说法,他说这件事不是真的,是有人用人工智能编出来的假内容,那段文字写得很具体,包括哪天转了多少钱、转了几次,还引用了一个所谓的内部人士的话,听起来像真事,但查不到任何来源能对上这些信息,这个谣言其实从3月份就开始传了,一开始没有点名是谁,但描述的特征太明显,比如说是顶流明星、很有钱、最近有负面消息,结果很多人自动联想到周杰伦、陈坤这些人,越传越让人觉得像是真的。
![]()
这种事不只发生在明星身上,全红婵去年底到今年初突然出现很多短视频,用她的声音来卖东西,她本人根本没有接这种工作,视频里说的话也不是她讲的,但声音听起来完全一样,粉丝看到以为是她在说话,就纷纷打赏和下单,钱都流进了黑产账户,有人拆解过整个过程,先从公开视频里收集她的声音,交给AI去训练模型,再批量制作脚本,一条视频就能带来百分之十二的转化率,平台审核系统根本不管那些只用了假声音却没露脸的内容。
![]()
演员温峥嵘遇到的事情更让人无奈,有人用AI技术制造出她的虚拟形象,在多个直播间同时销售不同商品,使用几乎相同的推销话术,她自己进入直播间想要说明情况,结果被直接禁言,最后舆论反而指责她“卖假货还怪到AI头上”,她想通过法律途径维权,却面临高昂的成本和漫长的过程,对方早已将资金转移走,配音演员的声音也被拿去合成新角色,合作方只用一句“技术误用”回应,连正式道歉都没有,刘晓庆、杨幂、雷军等公众人物都曾遭遇类似问题,现在从事这类行为的人只需投入几千元购买工具,就能赚取数十万元利润,而被查获的风险却非常低。
![]()
问题出在平台没有统一标注AI内容的规则,他们靠关键词来过滤,结果漏掉很多内容,比如一段视频里人脸是本人的,但说话内容是AI生成的,系统就识别不出来,用户举报需要填表、等待审核,明星相关的内容还经常被优先放行,因为流量高,法律也跟不上节奏,《民法典》里提到了声音权,但没有说清楚AI合成的声音算不算侵权,打官司动不动就拖一年半载,等判决下来,侵权者早就换号跑掉了。
![]()
更麻烦的是,这些工具在国外网站上点几下就能生成明星带货视频,服务器在境外,国内没法管,有人试过用国内平台上传AI生成的视频,改几个字、换段背景音乐,就能通过审核,这不是造谣,是直接借用人家的身份,把别人的形象、声音、行为模式整个搬走,替别人做决定、收钱、惹麻烦。
我看过那些被冒充的视频,最让人害怕的不是技术有多厉害,而是观众一开始不是觉得“这不像她”,反而会想“她是不是悄悄做了这件事”,以前我们只是怀疑信息的真假,现在连“这个人到底是不是本人”都要反复去确认,有个粉丝告诉我,“我现在看视频,先检查有没有水印,再查看发布账号的注册时间,最后搜索有没有官方辟谣”,这不是出于谨慎,而是已经变成一种习惯性的怀疑。
![]()
有人觉得AI就是个工具,用得好不好全看人怎么用,可当这工具能轻松复制一个人的存在感,法律和平台都拦不住的时候,问题就变了,不是谁在用AI,而是它能替你活下去了,昨天我刷到一个新视频,里面有个素人女孩,在医院走廊哭着说她妈妈病重急着用钱,评论区里有人问这是不是AI做的,另一个人回话说不太确定,但语音波形跟这女孩去年发的vlog对不上。
现在大家都不太容易相信别人说的话,遇到事情总要自己琢磨一下,看看实际情况怎么样,心里才能踏实下来。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.