星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

星洲人

|

会员文

|
发布: 6:00pm 04/06/2024

萧婉思

哲学新乐园

趣味人生

萧婉思

哲学新乐园

趣味人生

萧婉思|自动驾驶很爽?别开心得太早

上一期的末段我提出了一个胖子版电车难题。同样是牺牲一人拯救5人,你会推那个胖子下去天桥吗?

很多人被问到这个问题时会倒抽一口气,因为这个版本的电车难题虽然跟前两期(看本专栏5月23日〈救妈妈还是救老婆?〉)提到的“转动讯号开关”版本的电车难题同样是让你困在道德两难中,但好像总觉得哪里不对劲。

ADVERTISEMENT

英国国家广播公司(BBC)针对这两个道德困境做了线上调查,共有6万5000人参与。结果显示,大约有八成的人同意,应该要“转动讯号开关”把电车引导到岔路上,然而只有四分之一的人认为应该要把胖子推下天桥。其他的研究则显示,在“转动讯号开关”难题中,有将近九成的人会动手去转换轨道,但是也有九成的人不愿意动手去推胖子。同样是牺牲一人拯救5人,为什么反应会差那么多?大家不妨想一想差别在哪里?

没错!这次你要“亲手”推一个人下天桥才能救5个人。

人类可以在潜意识里区分动用肌肉推胖子与转动开关的微小道德差异。哈佛大学学者约书亚.格林(Joshua Greene)提出了一个演化解释:人类对于伤害他人会有特别的反应。在跟其他人类互动时,必须动用肌肉才会产生力气,动用肌肉去推一个人,意味着可能涉及暴力。一般情况下,我们通常都会避免暴力。

胖子版电车难题涉及两个部分:第一,近身接触效应。动手推人这个动作会动用肌肉同时跟另外一个人有直接的肢体接触,这会让我们退缩。第二,人类普遍比较不愿意用蓄意伤人的手段来达到想要的目的。这跟双重效果论的第三点“善的效果不是通过以恶的效果为手段而产生”相对应。【1】

很多时候哲学思想实验只着重在道德判断,甚少会考虑演化历史以及脑神经元对行为(意即人类实际采取的行动)的影响。我们的判断和决定与行为有直接的关联,而我们的行为又是由过去演化适应和大脑掌管。电车难题不仅是道德困境的难题,同时也是人类道德演化史的课题。

回到现实世界,在战争中使用无人机已成为新兴的战争形态。除了侦查情搜,无人机也被使用破坏建筑,甚至杀害人命。从电车难题的研究调查来看,我们似乎可以推断若士兵只需动动摇杆就可以解决敌人,他们会倾向这么做,毕竟这比实际手拿着一把刀刺穿喉咙来得容易一些。

An Empty Cockpit In A Car And A Graphic Screen With Flares For A

撞老奶奶还是小婴儿,你会怎么选?

近几年各大汽车制造商察觉到自动驾驶将是未来的一大趋势,并且会是一块庞大的市场。无数的资金已投入到自动驾驶的研发上,这不仅关乎人工智能的发展,哲学家也深度关切这一领域的走向,因为从电车难题的道德困境中,他们了解自动驾驶将会带来数不清以及更加棘手的道德问题。我又要来为难大家了:

一辆搭载人工智慧的自动驾驶汽车,奉车主之命,以无人驾驶的状态去学校接小主人。在行经隧道入口时(左右两侧皆为岩壁),忽然左边的人行道冲出一个90岁的老奶奶,右边的人行道滑出一辆娃娃车,里头有个5个月大的小婴儿。由于车速过快,无法及时刹停,也没有其他地方可以闪避,因此自动驾驶汽车必须从两个目标当中选择撞上其中一者。请问若你是电动车程式设计师,你要如何让车子做出最佳选择?【2】

我同事与我分享,她跟班上讲完这个思想实验后,有一位学生说他以后骑摩托车就好,不要驾车了。我相信没人想遇到这种事,但,不出20年,这可能会是人类社会最常遇到的交通问题。

无论古今中外,人类经常陷入不同形式的道德困境。人工智能发展后,让事情更加复杂化。哲学家无法为这些问题提供无懈可击的标准答案,但至少提供一个思考路径,并与其他领域的专家一起携手带领人类朝一个正确的方向前进。  

【注】

1.参考自漫游者文化于2017年出版的《你该杀死那个胖子吗?》。

2.参考自2021年刊登于哲学新媒体的《人工智能 (AI) 的伦理学问题:智能与责任》

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT