(臺北6日訊)耶路撒冷希伯來大學歷史系教授哈拉瑞指出,隨著AI時代帶來數十億的AI行為者正被引入社會,人類需要時間適應、學習與AI互動之外,當務之急,便是制訂更完善的國際監管規範,避免AI技術失控。
他今日在遠見高峰會發表演講時,將AI革命放入漫長的“資訊史”洪流之中,以獨特的史觀,指出人類每次面對技術革新,從文字、印刷術、電報到大眾媒體,社會都出現翻天覆地的改變,這次的AI革命也不例外。
ADVERTISEMENT
謹慎應對2危險
他分析,AI的主要危險可分為兩種。
“首先,我們可能會重蹈覆轍,讓歷史上曾隨著資訊科技或技術發展而出現的問題再度上演。”
他以工業革命為例,強調“過渡期”才是最危險的時刻。當時,人們不明瞭如何建立工業社會,認定工業社會的前提仰賴著建立一個“帝國”,因此展開了一系列實驗,卻衍生了眾多災難性的實驗結果,例如法西斯主義、共產主義的極權體制。
如果為了學習、適應AI,人類必須經歷同樣的試錯過程,“我們又將如何建立一個以AI為基礎的社會呢?”哈拉瑞拋出疑問,若未謹慎應對當前AI革命的“過渡期”,是否將導致眾多毀滅性的實驗結果,無人可以預料。
至於第二個AI將帶來的危險,哈拉瑞分析,是AI與過往的工具有一個根本上的不同,它自身便是行為者,“是歷史上第一項能夠自主做出決策的技術。”
指令偏誤將致破壞性結果
因此,哈拉瑞直言,他更偏好將AI縮寫詮釋為“外星智慧”,形容AI作為非有機的行為者,可以產出想法、自主學習,但處理資訊、判斷決策的過程,卻和有機人腦的邏輯截然不同。
當過往可以全然由人類操控的技術,已發展至可自由做出決斷,哈拉瑞提醒,即便AI本身無害,仍有可能因為指令偏誤,導致意料之外的破壞性結果,例如脫離控制、危害、奴役甚至消滅人類。
“這不是預言,也並非無法避免。”
籲記取工業革命教訓
面對AI革新背後潛藏的巨大潛力,各大企業家皆野心勃勃地全速發展。哈拉瑞以歷史為證,呼籲大眾記取工業革命的慘痛教訓,“強調AI的危險和威脅,便成為像我這樣的歷史學家和哲學家的責任。”
遠見高峰會由遠見.天下文化事業群主辦,媒體夥伴包括美國《世界日報》、馬來西亞《星洲日報》、《新浪財經》、新加坡《聯合早報》、《8視界》和《東方財經》。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT