星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

副刊

|

专题

|

焦点

|
发布: 7:00am 20/07/2023

诈骗

焦点

网络诈骗

人工智能

AI

ChatGPT

AI诈骗

AI语音诈骗

AI换脸诈骗

换脸软件

【AI诈骗/01】AI技术突飞猛进 网络诈骗如虎添翼

报道:本刊 林德成

)发展加速,犯罪集团早已觊觎AI的潜力,将AI技术渗入到黑色产业,动用换脸变声来展开。过去半年已有零星的AI事件,而这些新型的犯罪手法令到许多民众感到焦虑不安。

ADVERTISEMENT

“AI突飞猛进地发展,会不会加剧网络犯罪率?”我怀揣这个疑问,向网络安全专家抛问,希望能得到解答。同时,在难辨真伪的AI世界,我们要如何养成敏锐的辨别力,学会在网络上自保?

报道:本刊 林德成

几个月前,中国网民发现一些直播平台突然冒出多个“明星脸”,貌似杨幂、迪丽热巴的女主播在镜头前推销产品。但平台没声明眼前的“明星脸”是否为真人明星,全由网民自行猜测。

没等多久,这个现象很快被揭穿,原来直播平台动用换脸模型上演“障眼法”,让主播套上高颜值的“明星脸”引流带货。而AI换脸进驻直播产业间接说明一件事,“换脸”一点也不难。我们再换一个思路,诈骗分子想“改头换面”行骗,问题也不大。

在5月份就发生一宗AI诈骗事件,福州某家科技公司老板接获“好友”的微信视频聊天。诈骗分子佯装他的“好友”,称在外地投标需要保证金,想借他的公司账户走账。结果他误信对方被骗走人民币430万。所幸发现得早,他报警后成功拦截336.84万元。

有中国网民发现一些直播平台突然出现“明星脸”主播,结果揭露是直播平台使用了换脸技术。(图:截自《央视财经》新闻视频)

网上兜售换脸模型

电脑安全专家刘凯仁说,AI确实为犯罪分子提供一个新的犯罪方式。但两者没有直接关系,无论有没有AI,网络犯罪率依旧存在,且每天都会持续发生。其实,犯罪分子想换脸诈骗是需要一套训练模型,至少要有20张高清照片去训练AI系统。

至于换脸直播,根据网络资料,训练一个人脸模型需耗时几个月。现在已经不需要,有卖家在网上直接出售现成的训练模型,大概人民帀3万5000元(约2万2600令吉)就能购买到全套模型。买家购买后,再搭配自身的视频素材,等几个小时就能直接输出合成视频。

刘凯仁补充,即使动用换脸技术直播,仍需一个人出现在镜头前,“有可能是一个男的,但直播出来的画面却是女的。”

刘凯仁称,谈到诈骗风险,人人平等。如果平时喜欢上传自拍照到社交媒体,那么会有较高的风险,因为犯罪分子会大量收集照片作为AI训练素材。(图:受访者提供)

不只换脸,还能换五官

既然能换脸,那跟美颜滤镜有差别吗?他说,两者大同小异,分别在于用了不同的训练模型。

“美颜模型是让人变得好看,换脸模型则让你像别人多一点。基本上可以用美颜软件,换掉(底层)模型就可以了。”

现在的脸部训练模型还能客制化,比方说训练一个人五官,“对方可以拿你的五官特征,去匹配到另一张脸上。这个是非常惊人的Deepfake模型。”

刘凯仁说,已有开发者将这个训练模型文件上传到AI工具平台。这意味着,每个人皆可以下载到这个训练模型。“你想拿这个模型来做什么,那就是另外一回事了。”

在某个AI工具平台上,记者发现了一个供直播使用的换脸训练模型。(图:网络照片)

然而,大家未必会使用,但应该有看过或尝试过换脸应用程式。他说,换脸应用也有潜在的盗脸风险。特别是将自己的照片上传到不知名的网站,相等于让该网站背后的公司拥有了你的脸部数据。

网站自然会注明不会泄漏或储存用户的脸部资料,他不禁地问,你真的完全相信吗?“这些玩意很难赚钱,对方凭什么要提供免费的换脸服务?”

连声音都能伪造

除了换脸,现在的AI技术亦可伪造他人的声音。微软今年就发布了一款AI语音合成模型VALL-E,可模仿一个人的声音。该模型只需3秒钟长度的说话音频,就能模拟出相同的声音说话方式。不过,为了避免任何滥用风险,微软没有公开VALL-E的代码。

对犯罪分子而言,他们很神通广大,有办法研发出专属的AI语音合成模型。刘凯仁认为,虽说3秒钟的音频能模仿一个人声音,但很难精准模拟到对方说话的语气和惯用词语。

我好奇地问,究竟要如何“偷声音”呢?他答,一点也不难。诈骗分子是有针对地找目标。对方可以假冒销售员,与目标聊几分钟,再把他的声音录起来。第二天,对方再假冒另一个人和目标聊几分钟。经过几次通话,累积足够的语音素材后,就可以放进模型训练。

他举例早前网络疯传“AI孙燕姿”翻唱的视频,正是网民用AI语音转换软件,训练AI模型去仿唱歌曲。所以当和友人通话,对方突然要求借钱,可以留意对方的说话习惯和口头禅,这些细节有助于用户判断,电话那头究竟是真朋友还是骗子。

网络流传一款换脸软件,如果用户想要换脸,需要有两段视频。比方说要把马斯克的演讲视频,换成小罗伯特.唐尼(钢铁侠饰演者)的脸。视频素材最好能涵盖脸部的各个表情和角度,这样才能完美贴合。当训练的时间越长,脸部也会显得更加逼真。(图:网络照片)

老年人是最脆弱的一群

熟悉伪造视频技术的LGMS网络安全公司执行主席冯宗福说,在AI未成熟之前,诈骗分子已经使用模型伪造视频,不过是单向的形式,不能互动。反观现在的AI技术很成熟,对方可以自由操控说话内容、表情和声音,令人难以辨别。

“现在更快和容易生成Deepfake视频。以前还要花一整天渲染(画面),现在1个小时就可以做出来。以后诈骗案件恐怕会很多。”

他担心老年人会是最脆弱的一群,当他们视频聊天,看到是自己的亲人模样就会卸下心防,很容易陷入诈骗陷阱。“我相信以后需要有新的方法去认证,不能完全相信眼前一切。我们还在研究当中,要如何确认画面中的人是真人。”

冯宗福说,大马诈骗事件主要围绕在投资诈骗、爱情包裹诈骗、APK诈骗,还没牵涉到AI诈骗。至于如何辨别AI诈骗手法,他坦言还在找着有效的方法去防范。(图:本报资料中心)

目前,大马仍未有案例,但他语气严肃地说,随着AI硬件和软件逐渐强大,未来会是一个很大的挑战。

AI生成照片令调查工作具挑战

他以AI生成图像技术为例,从事爱情诈骗的犯罪分子都不再购买网络图库照片,直接用AI软件生成美女或俊男照片。

“我们调查爱情诈骗案件时,是会调查这些图库照片的来源,看看有没有在其他地方使用,或其他搜索引擎找到过。现在有了图像生成技术,图片属于‘原创’的,就找不到这些痕迹。”

过往的AI生成图像软件所生产的照片会有瑕疵,还能分辨得出是AI照片。最近Midjourney发布第五版,所生成的照片已近乎完美。“训练到(我们)越来越难分辨。”他相信以后只能通过AI来侦测这些AI生成图像。

想用ChatGP撰写论文,但又怕被查出来?如果上网搜索,会发现很多网红达人授招如何避免被检测。(图:网络照片)

“以后我们眼见和听到的都未必是真的。现在我们很依赖手机和社交媒体,很容易相信表面的东西,这是现代人最大的困境。以爱情诈骗为例,很多受害者连对方没见过就相信他。现在有了AI,让你看到对方的脸和听到声音,诈骗的成功率会提高。”

最怕蓄意欺诈的行为

提到换脸诈骗,微信支付联合创始人刘鹏坦言,如果是一对一视频聊天,很难去协助用户防范诈骗。他最怕是蓄意欺诈,即某人为了利益与诈骗集团合作,敲诈受害者。

那么要如何应对AI诈骗?他认为得从个人教育下手,尽量提高防诈意识。接着,平台再加强防范措施。比方说交流提示,要核实对方身分,谨防诈骗。然后调整资金转账的风险系数和运用大数据判断。

刘鹏说,未来AI行业的一大挑战是数据的可信度。假设训练一位AI老师,那么这位AI老师所提供的数据是否可靠,有没有经过权威单位认证?(摄影:本报 刘永发)

【辨识伪脸伪声你要这样做!】

●防范AI换脸诈骗

由于是套上换脸模型,一旦有东西遮挡脸部,AI会重新运算和辨别,此时就会露馅。因此,如果怀疑对方是AI换脸,可以这样识别:

1. 挥手验证:请对方在眼前挥一挥手,观察有没有扭曲的画面。

2. 戴上眼镜:请对方戴上眼镜,看看脸部有没有露出破绽。

3. 真实号码:与对方视频聊天时,确认是对方原先的电话号码或社交媒体账号。

4. 主动拨电:涉及借钱或网络转账,可要求见面或由你拨打电话给对方,以确认对方的身分。

●防范AI语音诈骗

为了避免穿帮,诈骗分子会编造借口来催促你,让你没有时间考虑。此时,要保持冷静清醒,不要被牵着走。若对方谎称是政府或执法单位时,更无需慌张。警方已多次声明,不会通过电话要求民众提供银行户头等资料来展开调查。

1. 主动拨电:收到要求转账的语音讯息,请回拨给对方,确认对方的身分。

2. 探问讯息:对方要求借钱或转账,询问一些只有你与对方才知道的秘密或讯息。

3. 留意语气:留意对方说话的语气和惯用词语,如果觉得他说话方式不对劲,那就有问题了。

延伸阅读:
【AI诈骗/02】AI大包围 你我要解锁哪些生存技能?
相关稿件:
【诈骗实况/01】为何步步小心,还是被骗钱了?
【无人机飞安/01】体积虽小冲击力大 无人机一飞限冲天

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT