市道新闻12月12日山西电 2025 年作为人工智能技术 “爆发临界点”,在大模型普惠化、行业深度融合的技术红利之下,AI 技术滥用风险正持续凸显。山西省消费者协会日前发布专项消费警示,直指 “AI 换脸”“AI 配音” 等深度伪造技术已成为诈骗分子的新型作案工具,此类诈骗因具备极强迷惑性,正对消费者财产安全和隐私权益构成严峻威胁,而公安部数据显示,2025 年一季度全国 AI 换脸诈骗案环比增幅已达 45%,反诈形势日趋严峻。
![]()
深度伪造技术成诈骗新载体 四步流程实施精准诱骗
据山西消协披露,不法分子利用深度伪造技术实施诈骗已形成标准化作案流程,核心在于通过技术手段伪造身份获取信任,再以紧急情境倒逼受害者完成转账,具体可分为四个步骤:
其一为信息搜集,诈骗分子会从抖音、微信视频号、微博等社交媒体平台,批量采集消费者及其亲友公开发布的视频、语音素材,用于 AI 模型训练,为后续伪造内容提供数据基础;其二是制造假象,借助 AI 换脸、AI 配音技术,合成面容、声音高度逼真的视频或音频,部分合成内容已能达到以假乱真的程度;其三是情境设计,编造车祸急救、资金周转、缴纳学费、合同款支付等紧急事由,压缩受害者思考核实的时间;其四为实施诈骗,通过视频通话、发送音视频片段等方式联系受害者,最终诱导其向指定账户转账。
在具体作案场景中,此类诈骗已呈现出明显的精准化、多元化特征。既有合成亲属、好友形象,以 “急事借钱” 为由实施的亲情类诈骗,也有针对企业财务人员、普通员工,冒充公司领导要求紧急支付合同款、保证金的职场类诈骗,更有伪造执法人员身份,以 “涉案” 为由要求将资金转入 “安全账户” 的公权力类诈骗。此前江苏南京曾出现犯罪分子利用 AI 换脸突破金融平台人脸识别认证、盗刷银行卡的案例,而山东宁阳一案件中,嫌疑人通过 AI 换脸伪造 “白富美” 人设网恋诈骗,涉案金额近 13 万元,常州金坛一老人也曾险些因 AI 换脸伪造的 “民警” 身份,被骗走 40 余万元养老金。
牢记 “三不二要” 原则 构建多重验证防护网
针对 AI 深度伪造诈骗的隐蔽性,山西消协特别提出 “三不二要” 核心防范原则,指导消费者建立 “多重验证” 安全意识,破除 “眼见为实、耳听为真” 的认知误区。
在 “三不” 原则层面,首先要不轻信,对所有非线下见面场景的转账要求保持高度警惕,即便看到熟悉面容、听到熟悉声音,也需警惕诈骗分子制造的 “紧急恐慌”;其次要不转账,在未通过独立渠道完成 100% 身份核实前,坚决不进行任何资金划转,守住财产安全的最后防线;同时要不泄露,谨慎在社交平台发布高清正面视频、原声音频,妥善保管身份证、银行卡等敏感信息,通过设置好友权限避免个人信息过度公开。
而 “二要” 原则则聚焦于核实与甄别能力的提升。一方面要主动核实,若接到亲友借款的视频请求,需挂断电话后通过手机通讯录存号回拨,或通过共同亲友交叉验证,建议家庭、挚友间约定大额资金往来专属暗语;另一方面要细致警惕,AI 合成内容往往存在表情僵硬、眨眼不自然、口型与语音错位、声音带电子杂音等破绽,且公检法机关绝不会通过视频、电话要求转账至 “安全账户”,凡是要求 “保密操作” 的指令均为诈骗信号。
遭遇诈骗需及时止损 留存证据助力案件侦破
山西消协特别提醒,消费者一旦发现被骗,需第一时间采取止损措施:立即拨打 110 报警或前往就近派出所报案,同步提交对方账号、联系方式、聊天记录、转账凭证等完整证据;同时联系银行客服或通过手机银行 APP 申请冻结对方账户,争取实现资金止付,最大程度降低财产损失。
业内人士指出,随着 AI 深度伪造技术门槛持续降低,相关诈骗已形成从技术教程售卖到定制化服务的灰色产业链,部分 AI 换脸教程售价低至 8 元,10 秒定制化合成视频报价 15 元至 300 元不等,技术滥用的低成本化正加剧诈骗风险扩散,而消费者的风险防范意识与技术甄别能力,将成为抵御此类诈骗的关键屏障。(陈斌)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.