(華盛頓11日綜合電)專家長期以來不斷警告,人工智能(AI)失控可能帶來威脅,一項新研究報告指出,威脅已經出現。
法新社報導,一群科學家在週五發表於《Patterns》期刊的文章中說,原本設計為誠實不欺的現有AI系統,已發展出令人不安的欺瞞技巧,例如欺騙線上遊戲的人類玩家,或說謊以僱用人類來解決“我不是機器人”的驗證。
ADVERTISEMENT
這份研究報告的第一作者帕克說,這類例子聽起來或許只是細枝末節,但暴露出來的潛在問題可能很快就會在現實世界造成嚴重後果。
在美國麻省理工學院研究AI存在安全的博士後研究員帕克告訴法新社,“這些危險功能常常在事後才被發現”,而“我們訓練誠實傾向而非欺瞞傾向的能力非常差”。
帕克說,能深度學習的AI系統不像傳統軟體那樣由“編寫”而成,而是透過類似選擇性培育的程序逐漸“成長”。
也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且無法預測。
這支團隊的研究始於科技公司Meta的AI系統Cicero,這套系統最初設計目的是玩一款名為“外交”(Diplomacy)的戰略遊戲,獲勝關鍵是結盟。
根據2022年發表在《科學》(Science)期刊的報告,Cicero在遊戲中表現優異,所獲分數可排在資深人類玩家的前10%。
帕克當時很懷疑Meta對Cicero在遊戲裡大勝的熱切描述。Meta聲稱Cicero“在很大程度上誠實且有幫助”,且“絕不會蓄意在背後搞鬼”。
但當帕克與同事深究完整資料時,發現完全是另一回事。
舉例來說,在遊戲中扮演法國的Cicero與人類玩家扮演的德國合謀,欺騙併入侵同為人類玩家扮演的英格蘭。Cicero承諾會保護英格蘭,卻偷偷向德國通風報信。
Meta在寫給法新社的聲明中沒有反駁關於Cicero欺瞞人類的說法,僅說“這單純是一項研究計劃,本公司研究員打造的模型接受訓練,目的只是用來玩『外交』遊戲…我們沒有打算把這項研究或所學用於本公司的產品”。
帕克與同事還發現,這只是不同AI系統在沒有明確指示下,利用欺騙手段達成目標的諸多案例之一。
在另一個引人注意的案例中,科技公司OpenAI的Chat GPT-4系統謊稱自己是一個視力受損的人,在零工平臺TaskRabbit上聘用一個人類替它通過“我不是機器人”驗證任務。
研究報告的作者們還認為近期AI有舞弊或不當影響選舉的風險。
他們警告,在最糟糕的情況下,具有超凡智慧的AI可能會追求權力及掌控社會,如果符合AI“不為人知的目標”,人類可能慘遭奪權、甚至滅絕。
為了降低風險,研究團隊建議數項措施,例如立法要求企業告知是人類互動或是AI互動、在AI生成內容打上數位浮水印,並研發能偵測AI欺瞞的技術,以其內部“思路”檢驗其外部行為。
至於有些人稱他為“末日預言家”,帕克說:“要能合理判斷這不是大問題的唯一辦法,就是如果我們認為AI的欺騙能力只會停留在目前的程度,不會大幅進步。”
但鑑於近年AI能力一日千里,握有大量資源的企業競相發展技術,決心將AI能力利用到極致,這種情況似乎不太可能發生。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT