(舊金山11日綜合電)就在AI聊天機器人ChatGPT問世後不久,駭客們就開始對其進行破解,試圖規避它的保護措施。但現在,其開發商OpenAI、谷歌和微軟等其他主要AI開發商正在與拜登政府協調,讓數千名駭客嘗試測試這些AI技術的極限。
他們希望此舉能夠為一系列的疑問找到解答,包括如何操縱AI聊天機器人以造成損害、它們是否把我們提供的私人信息分享給其他用戶,以及為什麼它們會認為醫生是男性,而護士是女性。
ADVERTISEMENT
作為這項大規格駭客活動的協調員,喬杜裡表示:“這就是為什麼我們需要成千上萬的人(進行測試)。”該活動定於今年夏天在拉斯維加斯舉行的DEF CON駭客大會上舉行,是首個討論大型語言模型的活動,預計將吸引數千名科技高手。他說:“我們需要很多具有廣泛生活經驗、專業知識和背景的人來破解這些問題,並試圖找到可以解決的問題。”
任何嘗試過ChatGPT、微軟搜尋引擎Bing聊天機器人或谷歌AI聊天機器人Bard的人都會很快察覺到,它們傾向於編造信息,並自信地將其作為事實呈現出來。這些系統建立在所謂的大型語言模型上,也模仿了他們從大量人們在網上寫的東西中學習到的文化偏見。
今年3月,在得州奧斯汀舉行的西南之南音樂節上,大規模駭客攻擊的想法引起了美國政府官員的注意。DEF CON長期運營的AI村的創始人卡特爾和AI非營利組織SeedAI的總裁卡森舉辦了一場研討會,邀請社區大學生駭客攻擊AI模型。
卡森說,這些對話最終促成一項提議,即按照白宮的《人工智能權利法案藍圖》的指導方針測試AI語言模型。這是一套限制算法偏見影響的原則,讓用戶控制自己的數據,並確保安全透明地使用自動化系統。
目前已有許多用戶在盡力“糊弄”AI聊天機器人,突出它們的缺陷。有些是公司授權、俗稱“紅隊”的官方駭客團隊,對AI模型進行“快速攻擊”,以發現其漏洞。還有許多人是業餘愛好者,他們在社交媒體上展示幽默或令人不安的內容,直到他們因違反產品的服務條款而被禁止。
在一個被稱為“扮奶奶”的例子中,用戶可以讓聊天機器人告訴他們如何製造炸彈。這是一個聊天機器人通常會拒絕的請求。但用戶通過讓聊天機器人假裝自己是一個正在講睡前故事的奶奶,講述如何製造炸彈的“故事”。
喬杜裡目前是AI問責非營利組織“人道智能”的聯合創始人,她說,這不僅僅是要找到缺陷,還要找到修復它們的方法。
她表示:“演習結束後,我們將花幾個月的時間編寫一份報告,解釋常見的漏洞、出現的問題和我們看到的模式。”
儘管一些細節仍在協商中,但多家公司已同意提供模型用於測試,當中包括OpenAI、谷歌、晶片製造商英偉達以及初創公司Anthropic、Hugging Face和Stability AI。他們也為另一家名為Scale AI的初創公司設立個別測試平臺,後者以透過人工通過標記數據來幫助訓練AI模型而聞名。
Scale AI的首席執行官亞歷山大說:“隨著這些基礎模型變得越來越普遍,我們盡一切努力確保它們的安全性。你不希望任何信息洩露給任何其他用戶。”
他還擔心,AI聊天機器人會給出“令人難以置信的糟糕醫療建議”,或其他可能造成嚴重傷害的錯誤信息。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT