人工智能无好坏,取决于我们对其使用的方式。只有通过道德伦理的深思熟虑,我们才能更好地开发人工智能技术,确保其对人类社会产生正面而深远的影响。
上个星期,世界经济论坛在迪拜举行的全球未来理事会会议,提出了个很实际的问题:人工智能的发展,是好是坏?然后专家说:是看谁在使用。
ADVERTISEMENT
用户决定人工智能的好坏处,这句确实一针见血。因为,人工智能其实就是个工具,一个归类为电脑软件,帮人类处理庞大资讯或进行特定工作的工具。既然是工具,那就没有所谓好坏之分。
你不能说暗器没武德,而是使用暗器的人不讲武德。暗器是死的,不会莫名的飞出去扎别人的背后。而人是活的,有明确的主观意识去决定要不要把暗器投出去。这跟各种人工智能一样。打个比方,我们选个用来生成图片的人工智能,用户能用这个人工智能来设计海报、产品,甚至室内设计图;用户也能用它来移花接木,可能是无中生有的把某人“P”进某些场景里,也可能是“P”别人的裸照。
人工智能本身无法判断用户输入的指令是“好”还是“坏”,只能依赖编程人员来持续增加人工智能的功能,使其能归类用户指令,接着根据编程人员的指令来选择是否执行用户的指令。
以此为基础,我们若要人工智能只处理符合道德伦理的指令,就得依赖编程人员来制定符合道德伦理的指令,使其不处理所有有违三观的用户指令。
由人性做出的选择,也才能用适用于人类的道德观去评论好坏。人工智能没有自我意识,所以就把它当作工具来反馈其优劣。接着,许多关于道德问题的探讨,就容易多了。
首先,人工智能是否具有自我意识和道德责任?答案是没有。人工智能的无意识和无自我意识性质与哲学上的唯物主义及心灵哲学有关。
从唯物主义的观点看,人工智能只是一系列的算法和数据处理,没有意识或主观体验。只有拥有意识的实体才能具有道德责任,人工智能不具备道德责任,因为它没有自我意识。
接着,我们看看人工智能的伦理问题。如果人工智能能够模仿人类的行为,包括模拟情感和社交互动,那我们是否应该赋予它某种程度的道德责任?
何谓模仿行为与承担责任?打个比方,汽车的自动化驾驶若撞伤了路人,是车主该负责任吗?还是编程自动化驾驶的汽车公司?
这个嘛,我们就引用一篇BBC去年关于自动驾驶的一篇报道。报道说,目前仍未有明确的法律定论。但若自动驾驶的时代来临,人类不应该承担法律责任。
报道引述英国法律改革委员会表示,在自动驾驶车辆上,人类只是使用者,所以承受不同的法律责任。然而,若发生意外,汽车公司要倒霉。这情况,你能想像一下,若有一天,长途巴士刮花了其他汽车,乘客需要负责任吗?不,是巴士司机要负责任。
但若是驾驶辅助程序就不一样了。在2019年,就有个司机因为使用特斯拉的驾驶辅助程序而发生意外。判决最终决定,是司机的错,因为没有遵守手册内的指示,也就是司机必须对汽车保持掌控,就算是启动驾驶辅助程序。
这判决的切入角度是:软件开发商已经告知用户智能驾驶程序的不足,那么因为程序不足而发生意外,用户就得负责任。来点简单的例子,我已经提醒你咖啡很烫了,你还一口气喝完,你能怪我吗?
人工智能无好坏,取决于我们对其使用的方式。只有通过道德伦理的深思熟虑,我们才能更好地开发人工智能技术,确保其对人类社会产生正面而深远的影响,而不是设计出一个会破坏社会和谐,或者夸张点,会灭掉人类的天网(Skynet,阿诺施瓦辛格主演的《Terminator魔鬼终结者》电影系列内,拥有自我智能的电脑系统)。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT