星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

即时国际

|
发布: 7:00am 08/03/2023

诈骗

人工智慧

ChatGPT

诈骗

人工智慧

ChatGPT

被AI騙走9萬多令吉!夫妻接電話以為兒子在求救 聲音竟是合成

被AI骗走9万多令吉!夫妻接电话以为儿子在求救 声音竟是合成
(互聯網照片)

加拿大一對夫妻接到一通電話,聽見“兒子”表示出車禍急需法律費用,心急如焚地透過比特幣匯款2.1萬美元(9.39萬令吉),後來才知道慘遭詐騙。原來,他們當初聽到的熟悉聲音不是親生孩子而是(AI)模擬合成。

《華郵》報道,受害夫妻接到第一通電話,從自稱“律師”的男子口中得知,兒子本傑明在一場車禍中撞死外交官而入獄,接著話筒傳來“本傑明的聲音”開口要錢。後來,他們又接到第二通電話,“律師”宣稱本傑明需要2.1萬美元的法律費用才能出庭。

ADVERTISEMENT

夫妻倆愛子心切而迅速匯款,後來才隱約感到有些奇怪,不過直到“真的”本傑明當天稍晚打電話過來,他們才驚覺受騙!

本傑明說,那個聲音是“足夠接近(我的聲音),讓我的父母真的相信他們在跟我說話。”儘管一家人趕緊向加拿大當局報案,可是“錢不見了,沒有保險,拿不回來。”

他不知道詐騙集團從那裡獲得自己的聲音,不過確實在YouTube發佈關於雪上摩托車的影片。

《商業內幕》報道,更強大的人工智慧興起之際,冒充身份的詐騙案也持續增多。不過,早在問世前,涉及AI技術的詐騙就已出現。

2019年,英國能源公司一名經理把24萬多美元匯入一個匈牙利戶頭,因為他以為“老闆”打電話要求這麼做。今年1月,研究AI聲音複製和語音合成的美國新創公司ElevenLabs也表示,他們注意到有人“把我們的科技用於惡意目的”,出現“越來越多聲音複製的濫用案例。”舉個例說,4chan匿名論壇上就有不法人士使用AI技術模擬與名人相似的聲音,說出種族歧視的不恰當言論。

美國聯邦貿易委員會(FTC)去年共接獲240萬人通報欺詐案,最常見類型就是冒名頂替者詐騙(imposter scams),儘管案件比前年低,可是損失金額很高,來到88億美元(393億令吉)。

FTC已成立一間科技辦公室,專門調查有發展前景且可能使用AI的公司,是否嘗試降低產品可能造成的風險。發言人格倫瓦爾德說,他們已經發現社媒上的欺詐案激增,“產生看似真實影片、相片、音檔和文本的AI工具可能加速這個趨勢,讓騙子更容易接觸受害人,速度也更快…我們也關心深偽探術(deepfake)與其他基於人工智慧的合作媒體的風險,它們變得越來越容易創作和散佈,將被用於詐騙。”

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT