随著人工智能(AI)技术的普及,让有心人士有机可趁,诈骗手法也层出不穷,AI语音复制诈骗是其中一种。
据科技媒体9to5mac报道,AI 语音复制技术只需 3 秒人声即可制作逼真语音,这项技术如果与行之有年的来电显示诈骗结合,就会形成更严重的诈骗问题,因听起来就是认识或信任的人在呼救。
ADVERTISEMENT
美国亚利桑那州4月发生一名母亲接到一通电话,传来疑似是女儿求救的声音,接著就有人声称绑架了她的女儿;这位母亲随后发现这是一场骗局,歹徒用廉价的AI软体服务复制女儿的声音之后再打电话给她。
香港01报道,德史蒂法诺先前接到电话,听到那头传来15岁女儿布里安娜尖叫和啜泣的声音,大喊:“妈妈!我遇到麻烦了!”接著是一名男子的声音,“听著,我跟你的女儿在一起,如果你报警或是打电话给其他人,我就会喂你女儿吃毒品,并且把她送到墨西哥,让你再也见不到她。”这名绑匪还要求德史蒂法诺付100万美元赎金。
德史蒂法诺非常慌张,电话那头听起来就是女儿的声音没错,而且女儿正为滑雪比赛训练,她认为女儿有可能真的在山上遇上绑匪。她赶紧报警求助,又尝试联络女儿,女儿疑惑地致电母亲,表示自己一切安好,德史蒂法诺此时才知道自己遇上骗案。
德史蒂法诺相信,歹徒很可能是用科技复制女儿的声音,再制作对话内容打给她。
加州大学柏克莱分校电脑科学教授法里德表示,在AI软体的协助下,民众只需付低至每月5美元的费用,就能复制人声,诈骗集团可能会利用这些廉价AI服务来复制人声并骗取金钱。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT