(首爾22日綜合電)一連兩天在韓國首爾舉行的第二屆全球人工智能安全峰會週三圓滿落幕。在這項有多國政府出席的峰會上,世界最大的一些科技公司承諾會安全地開發和使用他們的技術,而且將共同合作,防範人工智能(AI)的危險。
ADVERTISEMENT
包括韓國三星電子、韓國科技巨頭Naver以及美國谷歌和國際商業機器(IBM)在內的14家公司在峰會最後一天一致同意,在推動這尖端領域向前發展的過程中“將風險降至最低”。
他們在“首爾人工智能商業承諾”中表示:“我們致力於繼續推進研究工作,以促進AI模型的負責任開發。”
這些公司也承諾“最大限度地降低風險,並對能力和安全性進行穩健的評估”。
韓英聯辦峰會
這項為期兩天的峰會是由韓國和英國聯辦,來自OpenAI和谷歌旗下人工智能公司DeepMind等全球人工智能公司的高層齊聚一堂,共同尋找確保該技術安全使用的方法。
他們的承諾是建立在去年於英國布萊切利園舉行的首屆全球人工智能安全峰會所達成共識的基礎上。
根據新的承諾,這些公司也同意通過AI技術幫助社會弱勢群體,但沒有詳細說明會如何辦到。
較早前,包括ChatGPT開發商OpenAI谷歌DeepMind和美國人工智能初創公司Anthropic在內的16家科技公司也在週二誓言會做出新的安全承諾,其中包括分享他們如何評估他們技術的風險。
這包括哪些風險“被視為無法容忍”,以及公司將採取哪些措施來確保不跨越這些門檻。
專家警告監管機構難管制
不過,專家警告,當AI行業發展如此迅速時,監管機構很難理解和管理AI。
英國牛津非營利研究機構“人工智能治理中心”的政策負責人安德爾榮說:“我認為這是一個非常非常大的問題。”
“我預計,應對人工智能將成為未來數十年世界各國政府面臨的最大挑戰之一。”
他說:“世界需要對這些最先進的通用模型的風險有某種共同的理解。”
英國科學、創新和技術部長多蘭週三在首爾說:“隨著AI發展步伐的加快,如果我們要應對風險,我們就必須跟上這個速度。”
她表示,下一屆在法國舉行的AI峰會將有更多機會在測試和評估新技術方面“突破界限”。
多蘭說:“與此同時,我們必須將注意力轉向這些模型之外的風險緩解,確保整個社會能夠抵禦AI帶來的風險。”
ChatGPT在2022年發佈後不久就取得極大成功,引發生成式人工智能的“淘金熱”,世界各地的科技公司投入數十億美元開發本身的模型。
這種AI模型可根據簡單的提示生成文本、照片、音頻甚至視頻,其支持者宣稱它們是 一項突破,將改善世界各地的生活和商業。
然而,批評者、維權人士和政府警告,它們可能會以多種方式遭濫用,包括通過虛假新聞報道或政客的“深度偽造”圖片和視頻來操縱選民。
許多人呼籲制定國際標準來管理人工智能的開發和使用。
專家:需全球合作思考AI問題
領導一個評估AI模型的獨立非營利組織Humane Intelligence的人工智能倫理專家喬杜裡表示:“我認為人們越來越認識到,我們需要全球合作來真正思考AI的問題和危害。AI不分國界。”
喬杜裡告訴法新社,令人擔憂的不僅僅是科幻噩夢中的“逃跑的AI”,還有該領域嚴重的不平等問題。
她在首爾峰會場邊告訴法新社:“所有AI只是被構建、開發出來的,而且利潤是由非常非常少的人和組織獲得。”
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT