(舊金山10日法新電)美國OpenAI公司表示擔憂,其人工智能(AI)模型的逼真語音功能可能導致用戶與聊天機器人建立起社交關係,因此而犧牲了人際互動。
OpenAI引用了一些專業文章,指這些資料都顯示,如果人們像與真人那樣和AI聊天,這可能導致對AI的錯誤信任,而該公司今年5月所推出新版本大模型GPT-4o的優質聲音可能加劇這種影響。
ADVERTISEMENT
OpenAI週四發佈了一份有關其對ChatGPT-4o版本進行的安全審查報告。報告中說:“擬人化涉及將類人行為和特徵賦予非人類實體,如AI模型。 ”
“GPT-4o的聲音能力可能會增加這種風險,因為它方便了人們與該模型進行更像人類的互動”。
OpenAI表示有注意到測試人員與AI交談時流露出彼此間共同擁有的關係,譬如大聲哀嘆那是他們在一起的最後一天。
它表示,這些情況看起來是和善的,但也必須進行研究,以瞭解他們在更長的時間內會如何發展。
OpenAI推測,與AI進行社交還可能令用戶們在人際關係方面變得不那麼嫻熟或不太願意。
報告中也指稱:“與模型的長期互動可能會影響社會規範,”
“舉個例子,我們的模型是畢恭畢敬的,允許用戶隨時打斷和‘搶麥’。雖然這對於AI來說是意料之中的,但在人類互動中卻是反規範的。”
另外,OpenAI指出,AI在交談時記住細節和處理任務的能力也可能使人們過度依賴這項技術。
AI反抄襲檢測平臺Copyleaks聯合創辦人兼首席執行員雅敏表示:“OpenAI最近所提出對人們可能依賴ChatGPT語音模式的擔憂已表明,許多人已經開始在問:是時候停下來考慮這項技術如何影響人際互動和關係了嗎?”
他說,人工智能永遠不應該取代實際的人際互動。
OpenAI表示,該公司將進一步測試其AI的語音功能如何讓人們產生情感依戀。
負責測試ChatGPT-4o語音功能的團隊也能夠提示它重複虛假訊息並提出陰謀論。這引發了人們對AI模型可能會被要求令人信服地這樣做的擔憂。
今年6月,OpenAI被迫向好萊塢女星史考莉喬漢森(Scarlett Johansson)道歉,因為在其最新的聊天機器人中使用了與她的聲音非常相似的聲音,而這讓語音負責技術成為人們關注的焦點。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT