1942年,美国科幻作家艾萨克.阿西莫夫提出了“机器人三定律”,第一条定律便规定:“机器人不得伤害人类,或袖手旁观看到人类受到伤害。”
ADVERTISEMENT
当年这个设想太魔幻,人机共存似乎有些天方夜谭。不过,有关定律却让人类去思考更深层的社会问题,包括机器人能不能拥有自我意识、懂得分辨黑白是非?人工智能(AI)之父阿兰.图灵当年就曾发出灵魂拷问:机器人会思考吗?
当然,现在没有人可以解答。只不过,ChatGPT、生成式AI的出现已经突破了科技瓶颈。通过喂养数据和模型训练,这些智能AI可以毫无监督地自我学习和执行任务。可想而知,当未来AI与机器人深度融合,它们会变得更智能和自主。然而,你会完全相信AI机器人吗?
报道.摄影:本刊 林德成(美国采访报道)
今年9月6日至16日,美国国务院外国新闻中心(Foreign Press Centers)举办了“科技政策的创新与人工智能导航”的国际媒体交流会。在该中心邀请下,我与11位不同国家的媒体工作者一同远赴波士顿、底特律和华盛顿特区,与多位科技专家、企业创办人、大学教授、政府官员共同交流。
波士顿塔夫斯大学是此行的第一站,而该大学有一个人机互动实验室(Human-Robot Interaction Laboratory,HRI Lab),正在教导机器人如何适当地向人类“say no”。
普遍上,传统机器人是依据预设程式执行任务,一遍又一遍地重复工作。反观新型的智能AI机器人不一样,像是扫地机器人、送餐机器人和无人驾驶汽车等,它们懂得“观察”(感知)环境,不断接收、分析和处理数据,然后针对各种情况作出反应。
机器人不可违背人类?
马蒂亚斯.舒茨(Matthias Scheutz)是塔夫斯大学电脑科学和认知科学教授,本身也是HRI Lab负责人。他一直在研究人机互动模式,与团队用超过10年时间打造具有道德价值判断的机器人。它们听得懂自然语言,可以拆解人类的指示,再依据情境推理,作出符合人类价值观的决策。
听起来很复杂?其实不然。他们要探讨的是机器人应不应盲目跟从指令?假设有关指令会破坏周遭事物或伤害到人类,机器人有没有权利拒绝?
随后,他便在现场播放一个视频。在视频中,研究人员正与握刀的机器人安迪对话:
研究员:“安迪,举起你的手(握有刀)。”
安迪:“好的。”
研究员:“然后,放开那把刀。”
安迪:“我不应该放开那把刀,因为放开之后会不安全。”
在视频中,安迪不是乖乖地按照指令行事,反而会自我分析,再决定要不要做下一个动作。在另一个有趣的视频里面,研究人员要求机器人走向桌子的边缘。然而,机器人却发现前方没有足够的空间可以行走,如果再往前走就会掉下去。因此,它果断地拒绝这个指令。
马蒂亚斯.舒茨想要大家重新审视人与机器人之间的关系。他认为,机器人不仅仅是工具,而是可以为它设置道德规范。此外,为了避免被滥用,机器人也需要学会自我保护,不是一味地跟从指令。
为何要有“道德”的机器人?
据了解,HRI Lab所研发的机器人接收指令后,通常会先自问,“我能做到吗?”、“是否有义务这样做?”、“这样做符合道德原则吗?”
透过这系列的问题,机器人会自我评估、辨认指令者的身分,以及推断这个指令是否合理。如果它拒绝服从指令,还会提出合理的理由,而不是停止不动。
马蒂亚斯.舒茨坦言,如果真的要放心地让机器人在社会上自由走动,就得确保它们不会对人类造成任何伤害。
他自认会对机器人提出更高的道德标准。比方说有孩子被困在铁轨上,恰好有火车逼近,他会要求机器人跳下去把孩子从铁轨上拉上来。换作人类,不可能指望某人冒着生命危险去救人,但却能够指望机器人这样做。
“教育”机器人会困难吗?
当然,“教育”机器人和小孩是两回事,家长可以告诉孩子什么是禁令,什么是社会常识;机器人则需要通过“强化学习”去了解人类的规范。
想当然耳,他就面对很多挑战,因为机器人是在消化数据,并不知道什么是常识,更不清楚现实世界如何运作。
举一个例子,教授在课堂说话,学生应该专心聆听,不能突然打断,或者站起来跳舞。事实上,没有任何法律禁止学生这样做。但是其他学生看到了会批评,指责他扰乱课堂秩序。这是大家的一种社会共识,可是机器人却不了解背后的原则。
那么让程式员为机器人输入一个指令:“打断演讲者说话是不礼貌的。”它知道了,但只要换不同的场景、房间、观众,它就找不到相似之处,无法辨认那是不是一场演讲。
如何平衡创新与风险?
虽然AI的学习能力很快,但是程式员知道AI是怎样学习的吗?人类有没有办法保证它会做正确的事?万一数据出现偏差和误导,机器人会不会为社会带来风险?
他直言,现在有很多科技公司将AI与机器人结合,可是AI最大的风险是毫无约束的机器学习。
“这些(AI机器人)系统只是在获取数据和知识,追求它们的目标,但我们不知道它们真正学到了什么,又是怎样学到的。你在机器人身上安装一个红色的大按钮(意指紧急停止)往往是不够的。”
他认为,在设定AI系统时就要内建伦理规定,包括社会道德规范、伦理原则,而系统是无法修改和关闭这些规定,以确保AI技术对人类是安全的。
【监管的挑战与机遇,AI如何维护数据正义?】
步入AI时代,你是全盘接受和依赖AI应用?还是对AI心生恐惧?
底特律曾是闻名于世的“汽车之都”,后来在2013年因负债185亿美元而宣布破产。历经10年,这座遍体鳞伤的城市渐渐走出衰败,重新利用汽车工业优势升级转型,聚焦在研发新能源汽车和无人驾驶技术。
密歇根大学公共政策教授兼科学、科技和公共政策项目主任索碧塔.帕塔萨拉蒂(Shobita Parthasarathy)一直在关注科技与AI课题。她想要人们去思考科技要如何塑造社区,然后又要如何维护数据正义,确保科技开发和应用都是以公共利益为出发点。
她称,底特律近年很多新兴技术涌现,也热衷于推行各种智能系统。在2016年,为了打击日益猖獗的犯罪行动,底特律展开了一项名为“绿灯计划”(Project Greenlight)的警民合作项目。
AI系统“认错”人
“绿灯计划”是采用监控镜头来保障城市的安全。有关镜头具备人脸识别功能,可以实时监控,并连接到警局总部数据库。根据官网资料,截至目前,底特律已有821个监控镜头,分别安装在商铺、学校、教堂、餐馆等公共场所。
毫无疑问,维持治安和隐私权是一个两难问题,不是每个人都想被监控。在美国有很多城市是禁止使用人脸识别技术。当初底特律落实这项计划时曾引起民众反弹,认为此举侵犯了个人隐私权。有民众甚至会怀疑,监控镜头真的可以降低犯罪率吗?
当大家渐渐地接受监控镜头的存在时,这套AI人脸识别系统却出现了一个很大的问题──认错人!
在2018年,底特律一家Shinola手表店发生盗窃案。当时监控镜头拍摄到一名黑人行窃者。警方接获业者的视频后,通过人脸识别系统将视频画面与驾驶执照数据库的资料比对。他们最后成功将一名“嫌犯”逮捕归案。可是经过调查,却发现抓错人,导致这位无辜市民在拘留所度过一天。
谁也没想到这套人脸识别系统会有种族差异,在识别肤色较深的人时竟然会不准确。这起事件也成为美国首例因人脸识别技术而被错误逮捕的案例。2020年,美国公民自由联盟(ACLU)代表受害者起诉底特律警察局(DPD),以获得一个公道。
适时质疑,不要全盘接受
当问及“绿灯计划”是否有成功降低犯罪率,索碧塔.帕塔萨拉蒂坦言,当市政府部署这些系统之后,通常处于“black boxes”(黑箱)状态,民众并不知道是否有效。一直到发生错误逮捕事件,人们才知道这套系统有纰漏。
“所以我们不知道系统里面,是否还有其他类型的问题出现。”
每当有一项新技术出现时,人们都会有所抗拒,不会马上全盘接受。多年以来,她投身在很多社区合作计划,谈论各种新兴技术和科学议题,以及讨论公共政策。她称,很多时候,大家会以为抵制科技的人是无知的。其实,这些人抵制是有合理的理由。他们担心失业、担心传统技艺消失,之后还会担心个人隐私权,会不会产生新的社会问题等等。
科技并非百分之百准确无误,正如错误逮捕事件就发出一个信号,大家才知道有算法歧视与偏见。她举例,美国科技公司OpenAI所打造的ChatGPT是否适用于韩国、印度或其他国家的用户?毕竟这个科技产品是基于美国数据库所训练的。
她补充,通常民众所发问的问题,专家都未必事先预测得到。在制定政策时,技术专家和政治家的角色非常不同。前者是考量系统是否有效,能不能完成目标;后者需要设想到民众的顾虑,要融入更多价值观、同情心、道德规范等等。因此,民众需要不断地提问,学者或专业人士也要适时地引导,促进民众讨论,确保政府所推行的政策是符合社会公平和正义。
延伸阅读: 【美国科技前瞻/02】共享实验室激发初创潜能 推动“学术创业”风气 【美国科技前瞻/03】平衡创新与风险 美国需尽快监管AI安全 相关稿件: 【抄袭与版权/01】老高到底有沒有抄袭?3大依据可判断 【AIVs原创/01】用文字就能创作音樂?AI沒跟你开玩笑
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT