![]()
2023年全球因生成式AI导致的诈骗损失是123亿美元,四年后这个数字会变成400亿。这不是科幻片的预算,是德勤金融服务中心的预测数据。
McAfee最新研究显示,每4个美国成年人里就有1个已经遭遇过AI声音克隆诈骗,或认识受害者。这种骗局的蔓延速度,比2000年代那些"尼日利亚王子"邮件快得多。
James Grifo经营Audio Visual Nation多年,专门研究音频安全。他说现在的克隆技术已经能骗过最亲近的家人,而普通人几乎听不出破绽。
你的声音样本可能已经被卖了
骗子获取声音素材的渠道比你想象的简单。一段30秒的语音留言、社交媒体上的短视频、甚至客服电话里的录音,都足够训练出一个以假乱真的克隆模型。
Grifo提到一个典型案例:诈骗者会伪装成银行或快递公司,先给你打一通"核实信息"的电话。这通电话的真实目的,是录下你的声音反应当素材。几周后,你的"声音"就会打给亲戚朋友借钱救急。
更隐蔽的操作是深度伪造(Deepfake)视频配合声音克隆。骗子用AI生成你熟人的面孔和声音,在视频通话里表演车祸、住院、被绑架的桥段。2024年香港一家跨国公司因此被骗走2500万美元,骗子伪造了CFO的视频开会。
识别假电话的3个细节
![]()
Grifo给出了一套实用的自检方法,不需要技术背景也能操作。
第一,制造突发噪音干扰
电话那头如果是克隆声音,对突发干扰的反应会暴露问题。Grifo建议:突然敲桌子、按喇叭、或者让旁边的人大声说话。真人会自然地停顿、询问、调整对话节奏;AI声音往往继续自说自话,或者出现诡异的延迟和重复。
克隆模型处理意外输入的能力有限,就像自动驾驶遇到没画过的路况。
第二,问只有真知道答案的问题
别问"你生日是哪天"这种公开信息。要问你们上周吃的餐厅名字、共同朋友的外号、某次旅行的糗事。AI能模仿声音,但读不到你们之间的私密记忆。
Grifo强调,诈骗脚本都是批量生成的,个性化程度极低。一旦对话偏离预设轨道,克隆声音就会开始车轱辘话。
第三,要求回拨或切换渠道
![]()
真正的紧急情况,对方应该能接受你挂断后主动回拨到已知号码。骗子最怕这个——他们用的都是虚拟号码,回拨要么不通,要么转到另一个骗子手里。
同样,提出用视频通话或面对面确认,真人会配合,骗子会找借口。不是每个骗子都有香港那单的技术实力做实时换脸。
为什么这种骗局特别难防
声音克隆攻击的是人类最原始的信任机制。我们对熟悉声音的反应是本能的,大脑还没来得及启动理性分析,手已经按了转账确认。
Grifo指出,老年人不是唯一目标。McAfee数据显示,25-34岁群体受害比例反而更高——他们更习惯语音消息、播客、短视频,声音素材暴露得更多,对"朋友突然打电话借钱"的警惕性却更低。
技术层面,开源工具让克隆成本降到几乎为零。2023年还需要专业设备和数小时样本,现在一段TikTok视频加免费软件,15分钟就能出成品。
防御端的进展却慢得多。Grifo的公司和一些金融机构在研发"声纹水印"技术,给合法通话打上不可感知的标记,但普及遥遥无期。
目前最可靠的防线,是改变一个习惯:听到熟悉的声音求助,先假设它是假的,再用只有真知道的事验证。这很反直觉,但比事后追款现实得多。
你最近一次接到"熟人"的求助电话是什么时候?如果当时对方声音完美无缺,你会多问一句上周的暗号,还是直接救人?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.