星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

副刊

|

专题

|

焦点

|
发布: 7:00am 20/07/2023

诈骗

焦点

网络诈骗

人工智能

AI

ChatGPT

AI诈骗

AI语音诈骗

AI换脸诈骗

换脸软件

【AI詐騙/01】AI技術突飛猛進 網絡詐騙如虎添翼

报道:本刊 林德成

)發展加速,犯罪集團早已覬覦AI的潛力,將AI技術滲入到黑色產業,動用換臉變聲來展開網絡詐騙。過去半年已有零星的AI詐騙事件,而這些新型的犯罪手法令到許多民眾感到焦慮不安。

ADVERTISEMENT

“AI突飛猛進地發展,會不會加劇網絡犯罪率?”我懷揣這個疑問,向網絡安全專家拋問,希望能得到解答。同時,在難辨真偽的AI世界,我們要如何養成敏銳的辨別力,學會在網絡上自保?

報道:本刊 林德成

幾個月前,中國網民發現一些直播平臺突然冒出多個“明星臉”,貌似楊冪、迪麗熱巴的女主播在鏡頭前推銷產品。但平臺沒聲明眼前的“明星臉”是否為真人明星,全由網民自行猜測。

沒等多久,這個現象很快被揭穿,原來直播平臺動用換臉模型上演“障眼法”,讓主播套上高顏值的“明星臉”引流帶貨。而AI換臉進駐直播產業間接說明一件事,“換臉”一點也不難。我們再換一個思路,詐騙分子想“改頭換面”行騙,問題也不大。

在5月份就發生一宗AI詐騙事件,福州某家科技公司老闆接獲“好友”的微信視頻聊天。詐騙分子佯裝他的“好友”,稱在外地投標需要保證金,想借他的公司賬戶走賬。結果他誤信對方被騙走人民幣430萬。所幸發現得早,他報警後成功攔截336.84萬元。

有中國網民發現一些直播平臺突然出現“明星臉”主播,結果揭露是直播平臺使用了換臉技術。(圖:截自《央視財經》新聞視頻)

網上兜售換臉模型

電腦安全專家劉凱仁說,AI確實為犯罪分子提供一個新的犯罪方式。但兩者沒有直接關係,無論有沒有AI,網絡犯罪率依舊存在,且每天都會持續發生。其實,犯罪分子想換臉詐騙是需要一套訓練模型,至少要有20張高清照片去訓練AI系統。

至於換臉直播,根據網絡資料,訓練一個人臉模型需耗時幾個月。現在已經不需要,有賣家在網上直接出售現成的訓練模型,大概人民帀3萬5000元(約2萬2600令吉)就能購買到全套模型。買家購買後,再搭配自身的視頻素材,等幾個小時就能直接輸出合成視頻。

劉凱仁補充,即使動用換臉技術直播,仍需一個人出現在鏡頭前,“有可能是一個男的,但直播出來的畫面卻是女的。”

劉凱仁稱,談到詐騙風險,人人平等。如果平時喜歡上傳自拍照到社交媒體,那麼會有較高的風險,因為犯罪分子會大量收集照片作為AI訓練素材。(圖:受訪者提供)

不只換臉,還能換五官

既然能換臉,那跟美顏濾鏡有差別嗎?他說,兩者大同小異,分別在於用了不同的訓練模型。

“美顏模型是讓人變得好看,換臉模型則讓你像別人多一點。基本上可以用美顏軟件,換掉(底層)模型就可以了。”

現在的臉部訓練模型還能客製化,比方說訓練一個人五官,“對方可以拿你的五官特徵,去匹配到另一張臉上。這個是非常驚人的Deepfake模型。”

劉凱仁說,已有開發者將這個訓練模型文件上傳到AI工具平臺。這意味著,每個人皆可以下載到這個訓練模型。“你想拿這個模型來做什麼,那就是另外一回事了。”

在某個AI工具平臺上,記者發現了一個供直播使用的換臉訓練模型。(圖:網絡照片)

然而,大家未必會使用換臉軟件,但應該有看過或嘗試過換臉應用程式。他說,換臉應用也有潛在的盜臉風險。特別是將自己的照片上傳到不知名的網站,相等於讓該網站背後的公司擁有了你的臉部數據。

網站自然會註明不會洩漏或儲存用戶的臉部資料,他不禁地問,你真的完全相信嗎?“這些玩意很難賺錢,對方憑什麼要提供免費的換臉服務?”

連聲音都能偽造

除了換臉,現在的AI技術亦可偽造他人的聲音。微軟今年就發佈了一款AI語音合成模型VALL-E,可模仿一個人的聲音。該模型只需3秒鐘長度的說話音頻,就能模擬出相同的聲音說話方式。不過,為了避免任何濫用風險,微軟沒有公開VALL-E的代碼。

對犯罪分子而言,他們很神通廣大,有辦法研發出專屬的AI語音合成模型。劉凱仁認為,雖說3秒鐘的音頻能模仿一個人聲音,但很難精準模擬到對方說話的語氣和慣用詞語。

我好奇地問,究竟要如何“偷聲音”呢?他答,一點也不難。詐騙分子是有針對地找目標。對方可以假冒銷售員,與目標聊幾分鐘,再把他的聲音錄起來。第二天,對方再假冒另一個人和目標聊幾分鐘。經過幾次通話,累積足夠的語音素材後,就可以放進模型訓練。

他舉例早前網絡瘋傳“AI孫燕姿”翻唱的視頻,正是網民用AI語音轉換軟件,訓練AI模型去仿唱歌曲。所以當和友人通話,對方突然要求借錢,可以留意對方的說話習慣和口頭禪,這些細節有助於用戶判斷,電話那頭究竟是真朋友還是騙子。

網絡流傳一款換臉軟件,如果用戶想要換臉,需要有兩段視頻。比方說要把馬斯克的演講視頻,換成小羅伯特.唐尼(鋼鐵俠飾演者)的臉。視頻素材最好能涵蓋臉部的各個表情和角度,這樣才能完美貼合。當訓練的時間越長,臉部也會顯得更加逼真。(圖:網絡照片)

老年人是最脆弱的一群

熟悉偽造視頻技術的LGMS網絡安全公司執行主席馮宗福說,在AI未成熟之前,詐騙分子已經使用模型偽造視頻,不過是單向的形式,不能互動。反觀現在的AI技術很成熟,對方可以自由操控說話內容、表情和聲音,令人難以辨別。

“現在更快和容易生成Deepfake視頻。以前還要花一整天渲染(畫面),現在1個小時就可以做出來。以後詐騙案件恐怕會很多。”

他擔心老年人會是最脆弱的一群,當他們視頻聊天,看到是自己的親人模樣就會卸下心防,很容易陷入詐騙陷阱。“我相信以後需要有新的方法去認證,不能完全相信眼前一切。我們還在研究當中,要如何確認畫面中的人是真人。”

馮宗福說,大馬詐騙事件主要圍繞在投資詐騙、愛情包裹詐騙、APK詐騙,還沒牽涉到AI詐騙。至於如何辨別AI詐騙手法,他坦言還在找著有效的方法去防範。(圖:本報資料中心)

目前,大馬仍未有案例,但他語氣嚴肅地說,隨著AI硬件和軟件逐漸強大,未來會是一個很大的挑戰。

AI生成照片令調查工作具挑戰

他以AI生成圖像技術為例,從事愛情詐騙的犯罪分子都不再購買網絡圖庫照片,直接用AI軟件生成美女或俊男照片。

“我們調查愛情詐騙案件時,是會調查這些圖庫照片的來源,看看有沒有在其他地方使用,或其他搜索引擎找到過。現在有了圖像生成技術,圖片屬於‘原創’的,就找不到這些痕跡。”

過往的AI生成圖像軟件所生產的照片會有瑕疵,還能分辨得出是AI照片。最近Midjourney發佈第五版,所生成的照片已近乎完美。“訓練到(我們)越來越難分辨。”他相信以後只能通過AI來偵測這些AI生成圖像。

想用ChatGP撰寫論文,但又怕被查出來?如果上網搜索,會發現很多網紅達人授招如何避免被檢測。(圖:網絡照片)

“以後我們眼見和聽到的都未必是真的。現在我們很依賴手機和社交媒體,很容易相信表面的東西,這是現代人最大的困境。以愛情詐騙為例,很多受害者連對方沒見過就相信他。現在有了AI,讓你看到對方的臉和聽到聲音,詐騙的成功率會提高。”

最怕蓄意欺詐的行為

提到換臉詐騙,微信支付聯合創始人劉鵬坦言,如果是一對一視頻聊天,很難去協助用戶防範詐騙。他最怕是蓄意欺詐,即某人為了利益與詐騙集團合作,敲詐受害者。

那麼要如何應對AI詐騙?他認為得從個人教育下手,儘量提高防詐意識。接著,平臺再加強防範措施。比方說交流提示,要核實對方身分,謹防詐騙。然後調整資金轉賬的風險係數和運用大數據判斷。

劉鵬說,未來AI行業的一大挑戰是數據的可信度。假設訓練一位AI老師,那麼這位AI老師所提供的數據是否可靠,有沒有經過權威單位認證?(攝影:本報 劉永發)

【辨識偽臉偽聲你要這樣做!】

●防範AI換臉詐騙

由於是套上換臉模型,一旦有東西遮擋臉部,AI會重新運算和辨別,此時就會露餡。因此,如果懷疑對方是AI換臉,可以這樣識別:

1. 揮手驗證:請對方在眼前揮一揮手,觀察有沒有扭曲的畫面。

2. 戴上眼鏡:請對方戴上眼鏡,看看臉部有沒有露出破綻。

3. 真實號碼:與對方視頻聊天時,確認是對方原先的電話號碼或社交媒體賬號。

4. 主動撥電:涉及借錢或網絡轉賬,可要求見面或由你撥打電話給對方,以確認對方的身分。

●防範AI語音詐騙

為了避免穿幫,詐騙分子會編造藉口來催促你,讓你沒有時間考慮。此時,要保持冷靜清醒,不要被牽著走。若對方謊稱是政府或執法單位時,更無需慌張。警方已多次聲明,不會通過電話要求民眾提供銀行戶頭等資料來展開調查。

1. 主動撥電:收到要求轉賬的語音訊息,請回撥給對方,確認對方的身分。

2. 探問訊息:對方要求借錢或轉賬,詢問一些只有你與對方才知道的秘密或訊息。

3. 留意語氣:留意對方說話的語氣和慣用詞語,如果覺得他說話方式不對勁,那就有問題了。

延伸閱讀:
【AI詐騙/02】AI大包圍 你我要解鎖哪些生存技能?
相關稿件:
【詐騙實況/01】為何步步小心,還是被騙錢了?
【無人機飛安/01】體積雖小衝擊力大 無人機一飛限沖天

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT