(旧金山30日综合电)引领人工智能聊天机器人ChatGPT风潮的OpenAI,周五宣布推出一项声音克隆工具──“语音引擎”(Voice Engine),只要上传15秒声音,就能生成逼真的合成语音。OpenAI表示,由于合成语音被滥用的潜在风险,公司决定目前仅进行技术预览,暂时不会更广泛地发布该软件。
综合法新社和美国中文网等媒体报道,OpenAI在一篇部落格文章中表示,已经对“语音引擎”进行了多种可能的用途的测试,包括为儿童提供阅读辅助、语言翻译以及为癌症患者恢复声音。
ADVERTISEMENT
这款“语音引擎”其工作原理简单而高效:用户仅需通过电话或电脑麦克风录制一段15秒的声音片段,OpenAI的语音引擎便能生成“与其声音高度相似的自然语音”。
但假信息研究人员担心,由于价格便宜、易于使用且难以追踪的语音克隆工具激增,在关键的选举年,AI驱动的应用程序会遭滥用,如未经授权的语音模仿和深度伪造技术。
OpenAI写道,“我们认识到,生成声音的功能存在严重风险,这一点在大选年尤为突出。我们正在与来自政府、媒体、娱乐、教育等领域的国际合作伙伴合作,以确保我们在建设过程中吸收他们的反馈。 ”
OpenAI表示,由于合成语音可能的滥用潜在性,“我们正在谨慎而明智地考虑更广泛的发布策略。”
值得注意的是,2024年的选举已经出现了首例伪造语音,一条在新罕布什尔州出现的自动电话模仿了美国总统拜登的声音。“假拜登”在电话中用逼真的声音鼓励可能支持民主党的5000位选民在新州初选中不要投票。一名民主党工作人员后来承认,他使用了人工智能和一名新奥尔良街头魔术师的帮助来制作这个伪造语音。
这起事件引发专家警惕,他们担心2024年白宫争战和今年全球其他关键选举,会出现大量人工智能驱动的深伪假信息。
OpenAI称,参与测试“语音引擎”的合作伙伴接受了公司的使用政策,包括要求合作伙伴必须获得声音片段录制者的明确授权和知情同意,还必须在提供服务时明确告知用户,他们听到的声音是由人工智能生成的。
OpenAI指,公司已经实施了一系列安全措施。这些措施包括使用水印技术来追踪由语音引擎产生的任何音频的来源,以及主动监控这些音频的使用情况。
新墨西哥大学心理学副教授米勒在平台X上对OpenAI提出了问题,询问公司如何应对犯罪分子的潜在滥用问题。
他问道:“当数百万老年人因这些深度伪造语音而被骗走数十亿元时,OpenAI准备好迎接随后的诉讼海啸了吗?”。目前,OpenAI尚未对他的问题做出回应。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT