随着科技的进步,人工智能(AI)技术迅猛发展,在医疗、金融、教育等诸多领域都发挥着巨大作用。但科技的发展有时是一把“双刃剑”,AI技术已经被诈骗分子盯上……
AI诈骗防不胜防
以前,反诈民警在向我们普及电信诈骗手段时可能会提到网络刷单、冒充公职人员、发送陌生链接等方法,但近几年,一些犯罪分子盯上了AI变声、AI换脸技术。那么,人工智能时代,我们需要防范哪些新的诈骗手段呢?
声音合成
每个人的声音都是独一无二的,但犯罪分子可以利用AI技术实现声音的合成。犯罪分子会先给目标人群打电话,提前提取他们的声音信息,再利用AI技术对音频素材进行合成,然后利用合成后的声音实施诈骗。
AI换脸
人工智能时代,眼见也不一定为实。福建省福州市的郭先生就因犯罪分子在诈骗过程中使用了AI换脸技术,向对方转账数百万元。
AI换脸技术是利用一些深度学习算法,将高效、逼真的图片或视频替换到目标人脸上去。其实这种换脸技术只是身份替换的一种,也是较为基础的深度伪造技术。
相较于以前发送链接等广撒网的诈骗模式,利用AI换脸技术进行诈骗则是精准犯罪。犯罪分子会先分析目标人群在网络上发布的各类个人信息,包括照片、聊天记录、地理位置等,然后选定具体骗术,再利用AI技术进行换脸,通过视频通话的方式获取受害者的信任,进行诈骗。
比起声音,人脸确实更有信服力,这也是利用AI换脸技术进行诈骗成功率较高的原因。或许是因为手法过于新颖,AI换脸诈骗的消息传播十分迅速,人们在不知不觉中也夸大了其数量,在社会上掀起了一波“AI换脸诈骗潮”。但由于其实施模式的特殊性,犯罪分子利用AI换脸技术进行诈骗的方式目前并没有大规模出现,不过公安部门表示:虽然此类诈骗发案数占比较低,但公安机关已经注意到此犯罪新手法,将会同有关部门开展技术反制和宣传防范。
语音转发
我们在使用社交软件时会发现,发出去的语音是无法转发给他人的,但犯罪分子在盗取他人账号时,为了获取账号所有者好友的信任,他们会转发之前的语音,以取得对方信任,进而骗取钱财。虽然有些软件无法直接转发语音,但是他们会通过提取语音文件或者利用其他插件来实现语音转发。
如何防范新型诈骗
“96110!这个电话一定要接!”经过反诈民警和宣传部门的努力,近些年,大家的反诈意识有所提升,但是犯罪分子无孔不入,新的骗术层出不穷。我们应该怎样做,才能识破犯罪分子的千层套路,炼就一双火眼金睛呢?
首先,我们要增强自己的反诈骗意识,加强对个人信息的保护意识。比如不随便点击陌生链接、不加陌生人为好友、不下载陌生软件、不在互联网上暴露过多的个人信息,包括自拍、家庭住址等,不给犯罪分子可乘之机。
其次,接到陌生人电话或者涉及转账等行为时,要提高警惕,利用多种渠道确认对方身份。有研究人员指出,利用AI换脸技术来伪造视频通常会存在一些漏洞,比如忽略了人自发的、无意识的生理活动。所以,当你对视频对面的人的身份有所怀疑时,你可以让对方遮挡住半边脸或用手来回在面部前面晃动,如果面部发生扭曲或变形,表明对方有可能使用了换脸技术。这是因为AI在处理脸部状态时通常直接处理整张脸,而面对突如其来的遮挡,AI来不及反应,因此画面会扭曲。你还可以观察对方是否眨眼,或直接让对方闭眼,这是因为多数的假脸都是由睁眼的照片合成的,所以假脸极少甚至根本就不会眨眼。此外,还可以提一些其他人不知道的问题,测试对方身份。
最后,面对各种诈骗手段,我们可能防不胜防,一旦被骗或遇到可疑情形,一定要及时报警,寻求警方帮助。
AI换脸技术争议多
事实上,技术本身是没有错的,关键在于被谁使用、如何使用,这往往决定着技术对社会产生的影响究竟是正面的还是负面的。
以AI换脸技术为例,在影视行业,AI换脸技术可以让已故演员或历史人物重新出现在屏幕上,给予普通人一个表达尊重和喜爱的机会。但若其变成一些企业和投资人营销、谋得利益的手段,那往往会适得其反,惹人生厌。
在今年的中国国际服务贸易交易会上,中国影都展示区的AI换脸技术吸引了许多观众,大家通过上传自己的照片实现换脸,可以与《长津湖》《红海行动》等影片中的演员展开精彩的对手戏,给人以新奇的体验。但是随着AI换脸技术热潮的兴起,有一些网络主播为了博关注,将自己的脸换成明星的脸进行直播活动,殊不知这已经涉嫌违法了。
我们在享受科技进步为现实世界带来红利的同时,也容易迷失在虚拟世界制造的假象中。因此,只有不断更新和优化技术使用规则,规避潜在风险,社会才能实现良性运行和和谐发展。
【E学课堂】
当下,网络诈骗手法不断翻新,花样层出不穷,新老诈骗手法交织,因此,我们更需要擦亮双眼,守好钱袋子。扫描二维码,看看专家如何揭露AI诈骗的幕后真相。