论坛广播台
广播台右侧结束

主题: 吕梁:紧急预警!AI换脸、换声诈骗来袭

  • 然然
楼主回复
  • 阅读:42
  • 回复:0
  • 发表于:2023/5/15 15:52:31
  • 来自:山西
  1. 楼主
  2. 倒序看帖
  3. 只看该作者
马上注册,结交更多好友,享用更多功能,让你轻松玩转吕梁社区。

立即注册。已有帐号? 登录或使用QQ登录微信登录新浪微博登录

      近日,我市发生多起通过AI技术换脸、换声实施诈骗的案件。诈骗分子通过AI技术将视频电话、通话语音中的人脸、声音转换成受害人熟悉的人脸和声音或是公检法等相关部门工作人员的人脸头像,并与被害人进行“交流”,在取得被害人信任后实施诈骗。

      科技发展日新月异骗子也不落伍玩出了新花样。

      骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

第一种:声音合成


      骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

      案例:近日,某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。

 第二种:AI换脸


      人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,真是防不胜防!

      骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。

      案例1:近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂即报案。警方通过侦查发现,此段视频系诈骗分子通过AI技术进行伪造。

      案例2:我市群众王某接到省外某派出所“警官”微信视频,对方宣称,王某涉嫌洗钱等违法犯罪,需要向“安全账户”转账,因对方通过视频与王某进行了“交流”,王某深信不疑,最终受骗。

第三种:转发微信语音


      骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。诈骗分子通过提取语音文件或安装非官方版本插件,实现语音转发。

第四种:通过AI技术筛选受骗人群


      骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。

      举个例子:当诈骗分子进行金融诈骗时,经常搜集投资信息的小伙伴会成为他们潜在的目标。

请大家迅速转发扩散

广而告之!

谨防被骗!


来源:临州利剑
关注同城热点 获取最新资讯 点击查看更多本地热点话题
  
二维码

下载APP 随时随地回帖

你需要登录后才可以回帖 登录 | 注册 微信登陆
加入签名
Ctrl + Enter 快速发布