“妈,我出车祸了,快转5万!”今年5月,江苏一位老人接到“儿子”电话后立即汇款,事后才知声音系AI伪造。此类案件在2025年上半年全国已超200起,公安部紧急发布预警。
随着开源语音合成模型普及,仅需15秒音频即可克隆高度逼真的人声。技术本用于无障碍通信或虚拟主播,却被黑产用于精准诈骗。某暗网论坛甚至出售“亲人声音包”,售价低至50元。
技术专家张磊坦言:“现有反诈系统难以识别AI语音,因其频谱特征与真人几乎一致。”目前,部分银行已试点“声纹二次验证”,但普通通话仍无防护。
法律滞后亦成问题。现行《个人信息保护法》未明确将“声音”列为敏感信息。法学教授陈明呼吁:“应立法禁止未经同意的声音采集与合成,并建立AI语音水印溯源机制。”
当技术模糊了真实与虚构的边界,保护“声音权”已成为数字时代的新课题。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.