加拿大一对夫妻接到一通电话,听见“儿子”表示出车祸急需法律费用,心急如焚地透过比特币汇款2.1万美元(9.39万令吉),后来才知道惨遭诈骗。原来,他们当初听到的熟悉声音不是亲生孩子而是人工智慧(AI)模拟合成。
《华邮》报道,受害夫妻接到第一通电话,从自称“律师”的男子口中得知,儿子本杰明在一场车祸中撞死外交官而入狱,接着话筒传来“本杰明的声音”开口要钱。后来,他们又接到第二通电话,“律师”宣称本杰明需要2.1万美元的法律费用才能出庭。
ADVERTISEMENT
夫妻俩爱子心切而迅速汇款,后来才隐约感到有些奇怪,不过直到“真的”本杰明当天稍晚打电话过来,他们才惊觉受骗!
本杰明说,那个声音是“足够接近(我的声音),让我的父母真的相信他们在跟我说话。”尽管一家人赶紧向加拿大当局报案,可是“钱不见了,没有保险,拿不回来。”
他不知道诈骗集团从那里获得自己的声音,不过确实在YouTube发布关于雪上摩托车的影片。
《商业内幕》报道,更强大的人工智慧兴起之际,冒充身份的诈骗案也持续增多。不过,早在ChatGPT问世前,涉及AI技术的诈骗就已出现。
2019年,英国能源公司一名经理把24万多美元汇入一个匈牙利户头,因为他以为“老板”打电话要求这么做。今年1月,研究AI声音复制和语音合成的美国新创公司ElevenLabs也表示,他们注意到有人“把我们的科技用于恶意目的”,出现“越来越多声音复制的滥用案例。”举个例说,4chan匿名论坛上就有不法人士使用AI技术模拟与名人相似的声音,说出种族歧视的不恰当言论。
美国联邦贸易委员会(FTC)去年共接获240万人通报欺诈案,最常见类型就是冒名顶替者诈骗(imposter scams),尽管案件比前年低,可是损失金额很高,来到88亿美元(393亿令吉)。
FTC已成立一间科技办公室,专门调查有发展前景且可能使用AI的公司,是否尝试降低产品可能造成的风险。发言人格伦瓦尔德说,他们已经发现社媒上的欺诈案激增,“产生看似真实影片、相片、音档和文本的AI工具可能加速这个趋势,让骗子更容易接触受害人,速度也更快…我们也关心深伪探术(deepfake)与其他基于人工智慧的合作媒体的风险,它们变得越来越容易创作和散布,将被用于诈骗。”
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT