当人工智能(AI)发展加速,犯罪集团早已觊觎AI的潜力,将AI技术渗入到黑色产业,动用换脸变声来展开网络诈骗。过去半年已有零星的AI诈骗事件,而这些新型的犯罪手法令到许多民众感到焦虑不安。
ADVERTISEMENT
“AI突飞猛进地发展,会不会加剧网络犯罪率?”我怀揣这个疑问,向网络安全专家抛问,希望能得到解答。同时,在难辨真伪的AI世界,我们要如何养成敏锐的辨别力,学会在网络上自保?
报道:本刊 林德成
几个月前,中国网民发现一些直播平台突然冒出多个“明星脸”,貌似杨幂、迪丽热巴的女主播在镜头前推销产品。但平台没声明眼前的“明星脸”是否为真人明星,全由网民自行猜测。
没等多久,这个现象很快被揭穿,原来直播平台动用换脸模型上演“障眼法”,让主播套上高颜值的“明星脸”引流带货。而AI换脸进驻直播产业间接说明一件事,“换脸”一点也不难。我们再换一个思路,诈骗分子想“改头换面”行骗,问题也不大。
在5月份就发生一宗AI诈骗事件,福州某家科技公司老板接获“好友”的微信视频聊天。诈骗分子佯装他的“好友”,称在外地投标需要保证金,想借他的公司账户走账。结果他误信对方被骗走人民币430万。所幸发现得早,他报警后成功拦截336.84万元。
网上兜售换脸模型
电脑安全专家刘凯仁说,AI确实为犯罪分子提供一个新的犯罪方式。但两者没有直接关系,无论有没有AI,网络犯罪率依旧存在,且每天都会持续发生。其实,犯罪分子想换脸诈骗是需要一套训练模型,至少要有20张高清照片去训练AI系统。
至于换脸直播,根据网络资料,训练一个人脸模型需耗时几个月。现在已经不需要,有卖家在网上直接出售现成的训练模型,大概人民帀3万5000元(约2万2600令吉)就能购买到全套模型。买家购买后,再搭配自身的视频素材,等几个小时就能直接输出合成视频。
刘凯仁补充,即使动用换脸技术直播,仍需一个人出现在镜头前,“有可能是一个男的,但直播出来的画面却是女的。”
不只换脸,还能换五官
既然能换脸,那跟美颜滤镜有差别吗?他说,两者大同小异,分别在于用了不同的训练模型。
“美颜模型是让人变得好看,换脸模型则让你像别人多一点。基本上可以用美颜软件,换掉(底层)模型就可以了。”
现在的脸部训练模型还能客制化,比方说训练一个人五官,“对方可以拿你的五官特征,去匹配到另一张脸上。这个是非常惊人的Deepfake模型。”
刘凯仁说,已有开发者将这个训练模型文件上传到AI工具平台。这意味着,每个人皆可以下载到这个训练模型。“你想拿这个模型来做什么,那就是另外一回事了。”
然而,大家未必会使用换脸软件,但应该有看过或尝试过换脸应用程式。他说,换脸应用也有潜在的盗脸风险。特别是将自己的照片上传到不知名的网站,相等于让该网站背后的公司拥有了你的脸部数据。
网站自然会注明不会泄漏或储存用户的脸部资料,他不禁地问,你真的完全相信吗?“这些玩意很难赚钱,对方凭什么要提供免费的换脸服务?”
连声音都能伪造
除了换脸,现在的AI技术亦可伪造他人的声音。微软今年就发布了一款AI语音合成模型VALL-E,可模仿一个人的声音。该模型只需3秒钟长度的说话音频,就能模拟出相同的声音说话方式。不过,为了避免任何滥用风险,微软没有公开VALL-E的代码。
对犯罪分子而言,他们很神通广大,有办法研发出专属的AI语音合成模型。刘凯仁认为,虽说3秒钟的音频能模仿一个人声音,但很难精准模拟到对方说话的语气和惯用词语。
我好奇地问,究竟要如何“偷声音”呢?他答,一点也不难。诈骗分子是有针对地找目标。对方可以假冒销售员,与目标聊几分钟,再把他的声音录起来。第二天,对方再假冒另一个人和目标聊几分钟。经过几次通话,累积足够的语音素材后,就可以放进模型训练。
他举例早前网络疯传“AI孙燕姿”翻唱的视频,正是网民用AI语音转换软件,训练AI模型去仿唱歌曲。所以当和友人通话,对方突然要求借钱,可以留意对方的说话习惯和口头禅,这些细节有助于用户判断,电话那头究竟是真朋友还是骗子。
老年人是最脆弱的一群
熟悉伪造视频技术的LGMS网络安全公司执行主席冯宗福说,在AI未成熟之前,诈骗分子已经使用模型伪造视频,不过是单向的形式,不能互动。反观现在的AI技术很成熟,对方可以自由操控说话内容、表情和声音,令人难以辨别。
“现在更快和容易生成Deepfake视频。以前还要花一整天渲染(画面),现在1个小时就可以做出来。以后诈骗案件恐怕会很多。”
他担心老年人会是最脆弱的一群,当他们视频聊天,看到是自己的亲人模样就会卸下心防,很容易陷入诈骗陷阱。“我相信以后需要有新的方法去认证,不能完全相信眼前一切。我们还在研究当中,要如何确认画面中的人是真人。”
目前,大马仍未有案例,但他语气严肃地说,随着AI硬件和软件逐渐强大,未来会是一个很大的挑战。
AI生成照片令调查工作具挑战
他以AI生成图像技术为例,从事爱情诈骗的犯罪分子都不再购买网络图库照片,直接用AI软件生成美女或俊男照片。
“我们调查爱情诈骗案件时,是会调查这些图库照片的来源,看看有没有在其他地方使用,或其他搜索引擎找到过。现在有了图像生成技术,图片属于‘原创’的,就找不到这些痕迹。”
过往的AI生成图像软件所生产的照片会有瑕疵,还能分辨得出是AI照片。最近Midjourney发布第五版,所生成的照片已近乎完美。“训练到(我们)越来越难分辨。”他相信以后只能通过AI来侦测这些AI生成图像。
“以后我们眼见和听到的都未必是真的。现在我们很依赖手机和社交媒体,很容易相信表面的东西,这是现代人最大的困境。以爱情诈骗为例,很多受害者连对方没见过就相信他。现在有了AI,让你看到对方的脸和听到声音,诈骗的成功率会提高。”
最怕蓄意欺诈的行为
提到换脸诈骗,微信支付联合创始人刘鹏坦言,如果是一对一视频聊天,很难去协助用户防范诈骗。他最怕是蓄意欺诈,即某人为了利益与诈骗集团合作,敲诈受害者。
那么要如何应对AI诈骗?他认为得从个人教育下手,尽量提高防诈意识。接着,平台再加强防范措施。比方说交流提示,要核实对方身分,谨防诈骗。然后调整资金转账的风险系数和运用大数据判断。
【辨识伪脸伪声你要这样做!】
●防范AI换脸诈骗
由于是套上换脸模型,一旦有东西遮挡脸部,AI会重新运算和辨别,此时就会露馅。因此,如果怀疑对方是AI换脸,可以这样识别:
1. 挥手验证:请对方在眼前挥一挥手,观察有没有扭曲的画面。
2. 戴上眼镜:请对方戴上眼镜,看看脸部有没有露出破绽。
3. 真实号码:与对方视频聊天时,确认是对方原先的电话号码或社交媒体账号。
4. 主动拨电:涉及借钱或网络转账,可要求见面或由你拨打电话给对方,以确认对方的身分。
●防范AI语音诈骗
为了避免穿帮,诈骗分子会编造借口来催促你,让你没有时间考虑。此时,要保持冷静清醒,不要被牵着走。若对方谎称是政府或执法单位时,更无需慌张。警方已多次声明,不会通过电话要求民众提供银行户头等资料来展开调查。
1. 主动拨电:收到要求转账的语音讯息,请回拨给对方,确认对方的身分。
2. 探问讯息:对方要求借钱或转账,询问一些只有你与对方才知道的秘密或讯息。
3. 留意语气:留意对方说话的语气和惯用词语,如果觉得他说话方式不对劲,那就有问题了。
延伸阅读: 【AI诈骗/02】AI大包围 你我要解锁哪些生存技能? 相关稿件: 【诈骗实况/01】为何步步小心,还是被骗钱了? 【无人机飞安/01】体积虽小冲击力大 无人机一飞限冲天
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT