(舊金山6日綜合電)聊天機器人ChatGPT研發公司OpenAI週三表示,計劃投入大量資源並創建一個新的研究團隊,以確保人工智慧(AI)持續對人類保持無害,終將透過AI來監督AI自身發展。
英媒報導,OpenAI共同創辦人暨首席科學家蘇茨克維和協調團隊負責人雷克在部落格文章中寫道:“超級智慧(superintelligence)的巨大能力恐導致人類喪失權力,甚至可能導致人類滅絕。目前,我們對於掌控潛在的超級智慧AI還沒有解方,也無法預防AI失控。”
ADVERTISEMENT
文中預測,作為一個超越人類智慧的系統,超級智慧AI可能在這10年內誕生,人類需要比當前更厲害的技術來控制超級智慧AI,因此必須在“對齊研究”(alignment research)方面有所突破。“對齊研究”指的是聚焦於確保AI如何持續對人類有益的研究。
他們寫道,微軟支持的OpenAI預計將在未來4年內投入20%的運算能力,來解決這個問題。此外,公司正在針對這項目標組建一個名為Superalignment的新團隊。
這個團隊的目標是打造一個“人類等級”的AI對齊研究員,然後透過龐大的運算能力擴展它。OpenAI表示,這代表他們將會以人類反饋的方式來訓練AI系統,訓練AI系統協助人類評估,最終訓練AI系統實際進行“對齊研究”。
AI安全倡議人士雷希說,這項計劃有著根本性的缺陷,因為初始的人類等級AI在被迫解決AI安全問題前,就已經有可能失控並造成破壞。
AI的潛在危險一直是研究人員甚至是普羅大眾關切的問題,一群AI界領袖和專家今年4月曾聯署一封公開信,呼籲暫停開發比OpenAI的ChatGPT-4更強大的系統,為期至少6個月,理由是更先進的AI可能為社會帶來風險。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT