AI火了,骗子也来了!
(资料图片)
近日,两起利用AI换脸实施诈骗的案例引发关注。继包头警方发布“福州市某科技公司法人代表郭先生10分钟内被人用AI换脸诈骗430万元”后,5月25日,安徽警方也通过当地媒体披露了一起类似案件,诈骗分子使用了一段9秒钟的智能AI换脸视频,佯装“熟人”,导致安庆经开区的何先生被诈骗245万。
短时间内曝光的两起AI换脸诈骗案,对今年以来持续火爆的AI技术发展无疑是一种警醒:未来令人“防不胜防”的AI换脸诈骗会否大规模爆发?又应如何防范这类诈骗?
5月25日,新京报贝壳财经记者采访反诈民警以及行业专家发现,目前使用AI换脸诈骗的案例并不多,同时在上述两起诈骗案中受害者均是先入为主认为发来视频的是朋友的社交账号才有了后续“AI换脸”的登场,因此源头上应先防止自己账号被盗用、警惕他人社交账号真伪。此外,AI技术的发展也确实降低了AI换脸的门槛,客观上降低了AI换脸诈骗的成本。
两起AI换脸诈骗有何共同点?针对性诈骗,账号被盗是问题关键
新京报贝壳财经记者注意到,近期曝光的两起AI诈骗案例均属于针对性较强的“特定性诈骗”。在郭先生的案例中,“好友”通过微信视频联系他,表示自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。郭先生转账后拨打好友电话,才知道被骗。而在何先生的案例中,其微信“好友”突然向其发起视频通话,电话接通后,何先生看到“好友”正在一间会议室内,并借故会议有事,通过QQ要求周转资金,导致何先生被骗。
可以发现,在上述诈骗案例中,诈骗分子对受害者和其好友的身份、日常话术均有深刻了解,才能完成诈骗。此外,在伪造好友身份这一环,通过AI伪造视频只是增加可信性,但消息确实是从“好友”的微信号发来,才造成了受害者深信不疑。
电信专家付亮表示,在何先生的案例中,首先出现微信直接联系,然后转QQ号码直连,转账也未通过微信或QQ(绕开了腾讯的安全判定),“假冒QQ好友的诈骗手法快30年了,都没有用到AI,互联网快速发展,更多防护意识较弱的人成为网民,快捷的电子转账也为骗子提供了便利。两起案例中都是盗用账号诈骗,AI换脸只是辅助。”
民间互联网安全组织网络尖刀创始人曲子龙告诉新京报贝壳财经记者,此类AI换脸的诈骗手段都是定向针对性诈骗,而非传统意义上“广撒网,打打电话”的电信诈骗,往往干的也都是“大单”。源头上需要防止账号被盗用,不要轻易加陌生人,“也要防止其他人用小号加你,过一段时间改成你亲友,然后再实施诈骗。”
AI换脸诈骗不会大规模出现,有哪些方法可以识别对方是AI换脸?
5月25日,某沿海城市反诈专班民警对新京报贝壳财经记者表示,目前并未发现当地有使用AI冒充熟人作案的案例,主要是这种诈骗方式手段特殊,需要特定人群、还需要人脸数据等,要素比较多,因此不会大规模出现。
实际上,AI换脸技术早在2017年就已在网上流行,不论是使用女明星的脸替换成人影星的色情影片,还是为了娱乐使用自己的脸替换电影形象曾流行一时的App“ZAO”,使用的都是同一类技术。
如何识别对方是AI换脸?曲子龙表示,AI换脸目前在连续动作的实时渲染方面还是会存在技术缺陷,比如在说话的时候嘴部动作、眼部动作,如果仔细看都会存在一定的“不和谐”情况,如丢帧、嘴巴时大时小等问题。
有专家提示称,“AI假脸”的纹理特征存在破绽。例如,伪造后的视频人物的眼睛或牙齿轮廓细节容易不一致;两只眼睛瞳孔的颜色不一样或瞳孔中心反射的细节不一样;很多伪造视频由于视频分辨率低于原始视频,伪造出来的视频牙齿边缘过于整齐等。
新京报贝壳财经记者注意到,为了防止“穿帮”,一般诈骗分子不会长时间播放AI换脸的视频,如在何先生的案例中,诈骗分子只视频通话了9秒,就匆匆转到了文字聊天。
不过,一个现实问题是,随着AI技术的进步,AI换脸的门槛确实也越来越低。“以前AI换脸还需要一两百张图片,现在不同角度的照片,一般5到8张就可以生成很不错的模型了。”曲子龙说。
曲子龙坦言,“AI发展太快,想要防止脸被盗用太难了,尤其是一些公众人物、明星、网红,他们的照片很好获取。像微博、抖音、朋友圈,或者干脆去偷拍你几张高清照片,都能通过AI建模实现换脸。”
付亮对新京报贝壳财经记者表示,对于此类诈骗手法,主要要防范骗子通过微信或 QQ 假冒熟人(亲戚、朋友、客户)诈骗。一方面,有资金往来,应先电话确认;此外,把钱打到陌生账户,要反复确认;最后,一定切记,对面和你聊天的不一定是本人,可能是假冒的,甚至可能是机器人,不要轻易相信。
(文章来源:新京报)