星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国内

|

全国综合

|
发布: 5:06pm 06/11/2024

AI

规范

远见高峰会

完善

国际监管

AI

规范

远见高峰会

完善

国际监管

遠見高峰會 | 哈拉瑞:免技術失控 須完善AI國際監管規範

耶路撒冷希伯来大学历史系教授哈拉瑞今日在远见高峰会指出:随著AI时代带来数十亿的AI行为者正被引入社会,人类需要时间适应、学习与AI互动之外,当务之急,便是制订更完善的国际监管规范,避免AI技术失控
哈拉瑞呼籲以史為鑑,歴史學家及哲學家必須提醒大眾Al的危險和威脅。 (遠見高峰會提供)

(臺北6日訊)耶路撒冷希伯來大學歷史系教授哈拉瑞指出,隨著時代帶來數十億的AI行為者正被引入社會,人類需要時間適應、學習與AI互動之外,當務之急,便是制訂更的國際監管規範,避免AI技術失控。

他今日在遠見高峰會發表演講時,將AI革命放入漫長的“資訊史”洪流之中,以獨特的史觀,指出人類每次面對技術革新,從文字、印刷術、電報到大眾媒體,社會都出現翻天覆地的改變,這次的AI革命也不例外。

ADVERTISEMENT

謹慎應對2危險

他分析,AI的主要危險可分為兩種。

“首先,我們可能會重蹈覆轍,讓歷史上曾隨著資訊科技或技術發展而出現的問題再度上演。”

他以工業革命為例,強調“過渡期”才是最危險的時刻。當時,人們不明瞭如何建立工業社會,認定工業社會的前提仰賴著建立一個“帝國”,因此展開了一系列實驗,卻衍生了眾多災難性的實驗結果,例如法西斯主義、共產主義的極權體制。

如果為了學習、適應AI,人類必須經歷同樣的試錯過程,“我們又將如何建立一個以AI為基礎的社會呢?”哈拉瑞拋出疑問,若未謹慎應對當前AI革命的“過渡期”,是否將導致眾多毀滅性的實驗結果,無人可以預料。

至於第二個AI將帶來的危險,哈拉瑞分析,是AI與過往的工具有一個根本上的不同,它自身便是行為者,“是歷史上第一項能夠自主做出決策的技術。”

指令偏誤將致破壞性結果

因此,哈拉瑞直言,他更偏好將AI縮寫詮釋為“外星智慧”,形容AI作為非有機的行為者,可以產出想法、自主學習,但處理資訊、判斷決策的過程,卻和有機人腦的邏輯截然不同。

當過往可以全然由人類操控的技術,已發展至可自由做出決斷,哈拉瑞提醒,即便AI本身無害,仍有可能因為指令偏誤,導致意料之外的破壞性結果,例如脫離控制、危害、奴役甚至消滅人類。

“這不是預言,也並非無法避免。”

籲記取工業革命教訓

面對AI革新背後潛藏的巨大潛力,各大企業家皆野心勃勃地全速發展。哈拉瑞以歷史為證,呼籲大眾記取工業革命的慘痛教訓,“強調AI的危險和威脅,便成為像我這樣的歷史學家和哲學家的責任。”

遠見高峰會由遠見.天下文化事業群主辦,媒體夥伴包括美國《世界日報》、馬來西亞《星洲日報》、《新浪財經》、新加坡《聯合早報》、《8視界》和《東方財經》。

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT