(台北6日讯)耶路撒冷希伯来大学历史系教授哈拉瑞指出,随着AI时代带来数十亿的AI行为者正被引入社会,人类需要时间适应、学习与AI互动之外,当务之急,便是制订更完善的国际监管规范,避免AI技术失控。
他今日在远见高峰会发表演讲时,将AI革命放入漫长的“资讯史”洪流之中,以独特的史观,指出人类每次面对技术革新,从文字、印刷术、电报到大众媒体,社会都出现翻天覆地的改变,这次的AI革命也不例外。
ADVERTISEMENT
谨慎应对2危险
他分析,AI的主要危险可分为两种。
“首先,我们可能会重蹈覆辙,让历史上曾随着资讯科技或技术发展而出现的问题再度上演。”
他以工业革命为例,强调“过渡期”才是最危险的时刻。当时,人们不明瞭如何建立工业社会,认定工业社会的前提仰赖着建立一个“帝国”,因此展开了一系列实验,却衍生了众多灾难性的实验结果,例如法西斯主义、共产主义的极权体制。
如果为了学习、适应AI,人类必须经历同样的试错过程,“我们又将如何建立一个以AI为基础的社会呢?”哈拉瑞抛出疑问,若未谨慎应对当前AI革命的“过渡期”,是否将导致众多毁灭性的实验结果,无人可以预料。
至于第二个AI将带来的危险,哈拉瑞分析,是AI与过往的工具有一个根本上的不同,它自身便是行为者,“是历史上第一项能够自主做出决策的技术。”
指令偏误将致破坏性结果
因此,哈拉瑞直言,他更偏好将AI缩写诠释为“外星智慧”,形容AI作为非有机的行为者,可以产出想法、自主学习,但处理资讯、判断决策的过程,却和有机人脑的逻辑截然不同。
当过往可以全然由人类操控的技术,已发展至可自由做出决断,哈拉瑞提醒,即便AI本身无害,仍有可能因为指令偏误,导致意料之外的破坏性结果,例如脱离控制、危害、奴役甚至消灭人类。
“这不是预言,也并非无法避免。”
吁记取工业革命教训
面对AI革新背后潜藏的巨大潜力,各大企业家皆野心勃勃地全速发展。哈拉瑞以历史为证,呼吁大众记取工业革命的惨痛教训,“强调AI的危险和威胁,便成为像我这样的历史学家和哲学家的责任。”
远见高峰会由远见.天下文化事业群主办,媒体伙伴包括美国《世界日报》、马来西亚《星洲日报》、《新浪财经》、新加坡《联合早报》、《8视界》和《东方财经》。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT