(舊金山30日綜合電)引領人工智能聊天機器人ChatGPT風潮的OpenAI,週五宣佈推出一項聲音克隆工具──“語音引擎”(Voice Engine),只要上傳15秒聲音,就能生成逼真的合成語音。OpenAI表示,由於合成語音被濫用的潛在風險,公司決定目前僅進行技術預覽,暫時不會更廣泛地發佈該軟件。
綜合法新社和美國中文網等媒體報道,OpenAI在一篇部落格文章中表示,已經對“語音引擎”進行了多種可能的用途的測試,包括為兒童提供閱讀輔助、語言翻譯以及為癌症患者恢復聲音。
ADVERTISEMENT
這款“語音引擎”其工作原理簡單而高效:用戶僅需通過電話或電腦麥克風錄製一段15秒的聲音片段,OpenAI的語音引擎便能生成“與其聲音高度相似的自然語音”。
但假信息研究人員擔心,由於價格便宜、易於使用且難以追蹤的語音克隆工具激增,在關鍵的選舉年,AI驅動的應用程序會遭濫用,如未經授權的語音模仿和深度偽造技術。
OpenAI寫道,“我們認識到,生成聲音的功能存在嚴重風險,這一點在大選年尤為突出。我們正在與來自政府、媒體、娛樂、教育等領域的國際合作夥伴合作,以確保我們在建設過程中吸收他們的反饋。 ”
OpenAI表示,由於合成語音可能的濫用潛在性,“我們正在謹慎而明智地考慮更廣泛的發佈策略。”
值得注意的是,2024年的選舉已經出現了首例偽造語音,一條在新罕布什爾州出現的自動電話模仿了美國總統拜登的聲音。“假拜登”在電話中用逼真的聲音鼓勵可能支持民主黨的5000位選民在新州初選中不要投票。一名民主黨工作人員後來承認,他使用了人工智能和一名新奧爾良街頭魔術師的幫助來製作這個偽造語音。
這起事件引發專家警惕,他們擔心2024年白宮爭戰和今年全球其他關鍵選舉,會出現大量人工智能驅動的深偽假信息。
OpenAI稱,參與測試“語音引擎”的合作伙伴接受了公司的使用政策,包括要求合作伙伴必須獲得聲音片段錄製者的明確授權和知情同意,還必須在提供服務時明確告知用戶,他們聽到的聲音是由人工智能生成的。
OpenAI指,公司已經實施了一系列安全措施。這些措施包括使用水印技術來追蹤由語音引擎產生的任何音頻的來源,以及主動監控這些音頻的使用情況。
新墨西哥大學心理學副教授米勒在平臺X上對OpenAI提出了問題,詢問公司如何應對犯罪分子的潛在濫用問題。
他問道:“當數百萬老年人因這些深度偽造語音而被騙走數十億元時,OpenAI準備好迎接隨後的訴訟海嘯了嗎?”。目前,OpenAI尚未對他的問題做出回應。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT