
(华盛顿12日综合电)“妈,救救我!”美国亚利桑那州妇女迪斯特法诺接到女儿遭绑架后的求救电话,那哭泣声音让她毫无怀疑,绑匪要求她汇出100万美元(约461万令吉)赎款。所幸她稍后连络上女儿,证实稍早的电话全是人工智能(AI)合成的仿真语音。根据一项跨国民调显示,有70%受访者表示,如果接到类似诈骗电话,他们恐怕无法分辨AI语音的真假。
新型诈骗震撼美国当局,歹徒使用网路上垂手可得、几可乱真的AI语音复制工具,假冒家庭成员来诈骗亲人。
ADVERTISEMENT
法新社报道,专家表示,AI最大的危险是模糊了真实和虚幻的界线,让网路罪犯能有廉价又有效的技术来散播假讯息。
以迪斯特法诺为例,当时女儿在外地滑雪,她接到电话“100%”确定那是她15岁的女儿。
“问题不是那是谁,那就是她的声音…她哭起来就是那样。”迪斯特法诺4月告诉当地电视台,“我没有一秒钟怀疑过。”
还好迪斯特法诺几分钟后就连络上真正的女儿,解除虚惊,也把案件通报警方调查,但这案例充份显示利用AI“复制”真人语音的网路犯罪有多可怕。
在美国等9个国家针对7000人的民调中,约25%表示自己遇过AI语音诈骗,或听过别人有类似经验。这份由美国资安公司迈克菲实验室上月发布的民调显示,70%受访者表示,没有信心能“分辨真假语音”。
Blackbird.AI 人工智慧公司执行长卡利德指出,目前网路能搜到多款免费应用程式,可用来合成仿真语音,只要有本人短短几秒的讲话声音,就可复制合成,平常在社群平台上传的影音,可能被歹徒偷去用于电话诈骗。
这些“复制”的人声可能传送语音讯息,甚至可以用来在电话中跟人对话。
美国当局警告,最近常见的是“爷奶诈骗”,模仿孙儿、孙女的语音打电话给长辈,谎称亟需用钱,向阿公阿嬷求助,“例如发生车祸、被警察拘留,需要筹措保释金等等。”许多年长民众听到亲人声音,深信不疑,立刻汇款。
今年初AI新创公司ElevenLabs坦承自家语音合成工具可被用于“恶意用途”,先前就有用户发布透过“深伪技术”合成的语音,假冒英国女星艾玛·沃特森读希特勒自传《我的奋斗》。
“网路上看到的东西你都不能轻易相信,我们已到了这种程度。”创投公司Team 8科技主管塔尔霍赫伯格受访指出,“人类需要研发一种技术,能让人分辨跟你对话的对象,是你认识的真人。”
ADVERTISEMENT
热门新闻





百格视频

(新山16日讯)诈骗分子向校园伸黑手,宽柔中学古来分校今日针对有者冒用宽中老师名义,以不同手机号码假冒学校名义向商家索取报价及订货的情况,发出严正声明。
该校于今日发出声明启事,指近日来该校接获商家反映,有校外人士伪造名片,自称是宽中老师,使用不同的手机号码,假冒学校名义向商家索取报价及订货。
该校为此严正声明,该校任何采购事宜,都会有官方文件和签章。
为此,该校欲提醒商家,诈骗集团会以非常规的采购方式要求大量订货或跟指定商家订货,以骗取个资或金钱。
“倘若接获相关类似诈骗来电或讯息,敬请务必提高警觉,避免造成财务损失。”
该校也呼吁曾接获类似电话或手机讯息者,若有疑虑,可以致电:07-222 4655(新山宽中事务处)、07-663 6776(古来分校事务处)或07-213 3544(至达城分校事务处),查询求证。








ADVERTISEMENT