最近一条安全提醒直接冲上热搜,播放量狂破10亿,看完浑身发凉——只需5秒语音,你的声纹就能被AI完美复刻,骗子仅凭一句模仿的“喂”,就能冒充你的身份骗钱,甚至转走你的存款!
![]()
可能有人觉得“危言耸听”,但技术早已突破我们的想象。目前AI声纹合成技术的相似度已高达99.9%,无需复杂设备,只要获取你5秒以上的清晰语音,比如日常发的语音消息、接电话时的应答,就能快速生成可乱真的声纹,连语气、语速都能精准模仿。
![]()
现实中已有多人中招。浙江一位市民就因接陌生电话时随口说了句“喂,哪位”,被骗子截取语音复刻声纹,随后冒充他给家人打电话,谎称急需用钱,短短10分钟就骗走8万元。更可怕的是,很多人日常发朋友圈、群聊的语音,都可能成为骗子的“素材库”。
![]()
别慌!这3个避坑指南一定要记牢,转发给家人朋友,避免踩坑:第一,接陌生电话时,别先开口说“喂”,先让对方报身份,再回应,不给骗子截取语音的机会;第二,给手机语音支付、转账设置双重验证,比如密码+人脸识别,避免仅靠声纹验证;第三,发现有人用模仿的声音联系你或家人,立即挂电话,通过视频、线下见面等方式核实,必要时报警。
![]()
科技在便利我们生活的同时,也给骗子提供了可乘之机。声纹作为我们的“声音身份证”,一旦被滥用,后果不堪设想。愿我们都能提高警惕,守住个人信息防线,不让骗子有可乘之机。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.