AI换脸换声诈骗的案件
和您视频通话的人
可能是骗子伪装的!
诈骗分子运用AI技术
一键换脸、声音合成
让人防不胜防
大家一定要提高警惕!
淮安市公安局反诈预警
警情通报
2024年3月3日,淮阴区刘某收到同学发来的QQ消息,称其QQ转账被限制,希望刘某能帮忙发QQ红包给其表姐。同学向刘某要了微信收款码,随后发来了一张转账截图,声称设置了“2小时后到账”,但是表姐急用钱希望刘某能尽快转账。刘某有些犹豫,就询问对方现在人在哪里,对方发来了一段视频,声音和容貌都是同学本人,刘某彻底打消疑虑。之后,同学将刘某拉进一个QQ群中,多次让刘某在群里发QQ红包,共计6499元。当刘某银行卡内没有余额了,同学微信转账一直未到账,这才觉得不对劲,选择报警。
淮安市公安局反诈中心
2024年4月
01
AI诈骗常见手法
声音合成
诈骗分子通过各种方式提取声音素材,获取声音特征后进行声音合成,之后通过背景环境渲染并添加合成后的声音进而实施诈骗。
AI换脸
人脸效果更易取得信任,诈骗分子利用算法精准地识别素材视频中的人脸图像,提取如眼睛、鼻子、嘴巴等关键面部特征,再将这些特征与目标人脸图像进行匹配、替换、融合,生成视频或照片来“以假乱真”,进而实施诈骗。
警方提醒
01
保护信息、杜绝泄露。不随意在网络上暴露人脸、指纹、声音等个人信息。
02
多重核验,确认身份。可以让对方在脸前挥手、摁鼻子、捏脸等,观察其面部是否出现变形、抖动等。还可以拨打对方常用的电话号码,而非所谓的“新号码”,进一步核实对方身份。
03
杜绝诱惑,提高警惕。不登录、不下载来路不明的网站、软件,不点击不明平台发来的广告、中奖信息,以免被病毒侵入。
04
如不慎被骗或遇可疑情形,请注意保护证据立即拨打110报警。
原标题:《发现1例!注意防范》