AI诈骗手法又双叒叕更新了!

AI诈骗手法又双叒叕更新了!
2023年11月20日 20:00 媒体滚动

转自:上观新闻

随着科技的不断发展

Al技术被广泛运用到各个领域

骗子利用

Al换脸、语音合成、

转发微信语音等方式

仿冒他人身份实施诈骗

典型案例

某公司负责人沈先生突然接到好友A的FaceTime通话,称其正在外地参加投标,需要沈先生帮忙转一笔保证金。骗子通过AI换脸、声音合成等方式,伪装成其好友A,向沈先生发起FaceTime视频连线。视频连线后,沈先生遂将钱款汇入指定账户。事后,通过微信与好友A沟通时,沈先生被告知并无此事,遂发现被骗,共计损失100万元。

手法剖析

(一)AI换脸。

为获取受害人的深度信任,骗子通过AI技术换脸伪装实施诈骗。骗子会分析公众发布在网上的各类信息,根据所要实施的骗术,通过技术筛选目标人群,在视频通话中利用AI换脸,骗取对方的信任。

(二)声音合成。

骗子通过拨打骚扰电话,并同时录音的方式来提取受害人的声音,成功得到素材后进行声音合成,进而利用伪造的声音实施诈骗,因此诈骗成功率极高。

(三)转发微信语音。

骗子在成功盗取微信号后,会冒充受害人的亲友、领导等,为了让对方更加相信转账理由,通常会转发之前的语音获取受害人的信任。

虹口反诈中心提醒

(一)脸部遮挡进行分辨。

目前,AI换脸技术主要采取脸部正面图像进行技术解析,视频通话过程中,用手部短暂遮挡面部位或有物体在面前晃动,脸部会出现明显的变形。收到语音通话时,可以要求对方用手在面前进行晃动,以辨别是否为AI换脸诈骗。

(二)转账前“等一等”“查一查”。

在转账前,回拨亲属朋友视频、电话进行确认,在没有完全得到亲属朋友的肯定答复前,不要盲目听信视频、电话的转账要求,避免发生财产损失。

(三)日常注意保护好个人信息。

日常生活中要提高个人信息保护意识,不随意下载陌生软件、注册陌生平台或添加陌生好友,对个人社交账户的安全状况保持警惕。尽量避免在互联网过多暴露个人照片、声音、视频等信息。不贪图方便把身份证、银行卡照片等直接存放在手机内。如不慎被骗或遇可疑情形,请注意保护证据,并立即拨打110报警。

记者:徐维晨

图片:虹口反诈中心

编辑:徐维晨

海量资讯、精准解读,尽在新浪财经APP
诈骗

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 11-27 艾森股份 688720 --
  • 11-24 锦江航运 601083 --
  • 11-22 机科股份 835579 8
  • 11-21 中机认检 301508 16.82
  • 11-20 京仪装备 688652 31.95
  • 新浪首页 语音播报 相关新闻 返回顶部