AI技术诈骗在全国呈爆发趋势,你我可能都是下一个受骗者。
AI技术诈骗确实有逐渐增多的趋势,以下是一些相关情况:
常用手段
• 克隆人脸和声音:诈骗团伙利用AI技术克隆受害人熟悉的人的脸和声音,通过视频通话或语音通话等方式,冒充他们向受害人实施诈骗。比如克隆留学生的脸和声音,向其家长进行转账诈骗。
• 伪造客服电话:诈骗分子用AI技术合成客服电话,拨打大量电话诱导受害者充值或进行其他操作。
• 克隆受害者声音:诈骗团伙用AI工具拨打广告电话,在受害者拒绝时录音克隆其声音,后续可能利用克隆的声音进行进一步的诈骗活动。
典型案例
有乌克兰女孩被有心人克隆脸和声音,在中国平台上操着流利的中文为俄罗斯带货以吸取流量。还有诈骗团伙用AI合成声音诈骗留学生家长转账,以及用AI客服电话诱导受害者充值等。
防范方法
• 视频通话时仔细观察:涉及利益相关的视频通话,尽量拉长通话时间,观察对方脸部表情是否模糊,可要求对方转动侧脸或用手遮住脸部。
• 语音通话时留意语气:若语音通话时对方说话语气过于平静,没有抑扬顿挫或熟悉的口音,要提高警惕。
• 多渠道求证信息:收到照片或视频,先通过电话或视频通话与对方求证。
• 遇事与他人商量:遇到可疑情况,拉着身边的家人一起判断。