星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

即时国际

|
发布: 11:22am 12/05/2024

说谎

AI

说谎

AI

研究:訓練後逐漸“成長” AI學會說謊 人類現危機

研究:训练后逐渐“成长”  AI学会说谎 人类现危机
圖為網民在瀏覽凱蒂佩莉在IG貼出“出席”時尚盛典的AI造假照片。(圖:法新社)

(華盛頓11日綜合電)專家長期以來不斷警告,人工智能()失控可能帶來威脅,一項新研究報告指出,威脅已經出現。

法新社報導,一群科學家在週五發表於《Patterns》期刊的文章中說,原本設計為誠實不欺的現有AI系統,已發展出令人不安的欺瞞技巧,例如欺騙線上遊戲的人類玩家,或說謊以僱用人類來解決“我不是機器人”的驗證。

ADVERTISEMENT

這份研究報告的第一作者帕克說,這類例子聽起來或許只是細枝末節,但暴露出來的潛在問題可能很快就會在現實世界造成嚴重後果。

在美國麻省理工學院研究AI存在安全的博士後研究員帕克告訴法新社,“這些危險功能常常在事後才被發現”,而“我們訓練誠實傾向而非欺瞞傾向的能力非常差”。

帕克說,能深度學習的AI系統不像傳統軟體那樣由“編寫”而成,而是透過類似選擇性培育的程序逐漸“成長”。

也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且無法預測。

這支團隊的研究始於科技公司Meta的AI系統Cicero,這套系統最初設計目的是玩一款名為“外交”(Diplomacy)的戰略遊戲,獲勝關鍵是結盟。

根據2022年發表在《科學》(Science)期刊的報告,Cicero在遊戲中表現優異,所獲分數可排在資深人類玩家的前10%。

帕克當時很懷疑Meta對Cicero在遊戲裡大勝的熱切描述。Meta聲稱Cicero“在很大程度上誠實且有幫助”,且“絕不會蓄意在背後搞鬼”。

但當帕克與同事深究完整資料時,發現完全是另一回事。

舉例來說,在遊戲中扮演法國的Cicero與人類玩家扮演的德國合謀,欺騙併入侵同為人類玩家扮演的英格蘭。Cicero承諾會保護英格蘭,卻偷偷向德國通風報信。

Meta在寫給法新社的聲明中沒有反駁關於Cicero欺瞞人類的說法,僅說“這單純是一項研究計劃,本公司研究員打造的模型接受訓練,目的只是用來玩『外交』遊戲…我們沒有打算把這項研究或所學用於本公司的產品”。

帕克與同事還發現,這只是不同AI系統在沒有明確指示下,利用欺騙手段達成目標的諸多案例之一。

在另一個引人注意的案例中,科技公司OpenAI的Chat GPT-4系統謊稱自己是一個視力受損的人,在零工平臺TaskRabbit上聘用一個人類替它通過“我不是機器人”驗證任務。

研究報告的作者們還認為近期AI有舞弊或不當影響選舉的風險。

他們警告,在最糟糕的情況下,具有超凡智慧的AI可能會追求權力及掌控社會,如果符合AI“不為人知的目標”,人類可能慘遭奪權、甚至滅絕。

為了降低風險,研究團隊建議數項措施,例如立法要求企業告知是人類互動或是AI互動、在AI生成內容打上數位浮水印,並研發能偵測AI欺瞞的技術,以其內部“思路”檢驗其外部行為。

至於有些人稱他為“末日預言家”,帕克說:“要能合理判斷這不是大問題的唯一辦法,就是如果我們認為AI的欺騙能力只會停留在目前的程度,不會大幅進步。”

但鑑於近年AI能力一日千里,握有大量資源的企業競相發展技術,決心將AI能力利用到極致,這種情況似乎不太可能發生。

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT