最近,小编在刷社交平台的时候,看到有网友表示,荆州最近发生了新型的大骗局,还有网友煞有其事的讲了自己的亲身经历。
不过,小编查了一下官方的新闻报道,发现这个所谓的新型骗局也可能就是一个谣言。
荆州发生新型大骗局 AI克隆你?
在视频中,一位主播表示:最近的新闻大家看到了,荆州最近发生了一个新型大骗局,以前只在北上广深大城市,现在已经蔓延到我们荆州了,真人真事。
![]()
看到这里,你是不是被这个内容所吸引,主播后来讲述了这个所谓的新型大骗局。
大致内容就是说,有陌生人要你帮忙去念手机上的字,如果你帮忙了,就陷入了新型AI高科技骗局,只要你帮忙念出了这十几个字,对方就能悄悄的获取你的人脸信息,就会克隆你。
首先,小编查了下,荆州并未发生这种新型骗局的新闻报道,只有社交平台的一些主播自称的所谓真实经历。
![]()
比如一位荆州网友发视频表示,自己在店子里面,有个姨妈找她念手机上的数字,然后她发现手机正在录视频,然后这位网友还科普说:这是在采集你的声音和人脸识别信息,可以生成AI提升前去网贷,不到半小时你就可能背上贷款。
不过小编对这个故事的真实性是存疑的,因为在去年12月份,短时间内,荆州有多位网友都讲诉了类似的所谓亲身亲历的故事。
此类AI诈骗 发生概率小
首先,关于第一位主播说北上广深发生过,上海、成都、南京的地民警在接受采访时曾表示没有接到过此类的报案。
另外还解释到:仅有声音和面部信息,没有身份信息、手机号、验证码及银行卡号等信息,网贷平台难以审批下款,当事人在极短时间内“被网贷”的可能性并不大。
![]()
这里想一下,如果说读手机上的几个字就可以训练AI替身,那么,主播发布的视频也是有图像有声音,直接下载主播的视频进行AI训练,是不是比找主播读数字或者文字来的更加方便。
其实现在社交平台公开渠道的视频和声音那么多,没必要做一些冒险的举动。
小编觉得,提醒大家注意个人隐私,谨慎使用人脸识别,不帮陌生人读任何数字,这一点,小编觉得没有问题而且有必要,泄露的个人信息容易被不法分子二次利用,总归是有安全风险隐患的。
但是如果编造说自己亲身经历或者说荆州已经发生新型大骗局,就有点为了流量制造焦虑了。
常见AI骗局大盘点
虽然所谓的AI替身网贷的骗局发生的可能性较低,但大家仍需要警惕,小编也结合官方资料为大家梳理了几类常见的AI诈骗。
AI模仿声音诈骗:诈骗分子主要是利用互联网公开渠道获取目标人物的照片、视频和音频素材,通过视频生成类AI工具,伪造出与目标人物极为相似的面容和声音,以各种理由诱导受害者转账或提供个人信息。
AI生成不雅内容诈骗:利用AI换脸技术,伪造带有受害人面容的不雅视频、图片和音频等,进行勒索敲诈。
AI生成虚假人物网恋诈骗:利用AI生成或凭借的美女帅哥视频,最后就是找被害人借钱等。
另外还有AI换脸直播,特别是一些名人的,这个大家一搜新闻一大堆。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.