星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

副刊

|

专题

|

焦点

|
发布: 7:00am 12/10/2023

焦点

人工智能

AI

机器人

ChatGPT

AI机器人

AI Robot

监控镜头

绿灯计划

波士顿塔夫斯大学

【美国科技前瞻/01】学会拒绝人类 AI机器人更自主更智能

报道.摄影:本刊 林德成(美国采访报道)

1942年,美国科幻作家艾萨克.阿西莫夫提出了“三定律”,第一条定律便规定:“机器人不得伤害人类,或袖手旁观看到人类受到伤害。”

ADVERTISEMENT

当年这个设想太魔幻,人机共存似乎有些天方夜谭。不过,有关定律却让人类去思考更深层的社会问题,包括机器人能不能拥有自我意识、懂得分辨黑白是非?)之父阿兰.图灵当年就曾发出灵魂拷问:机器人会思考吗?

当然,现在没有人可以解答。只不过,、生成式AI的出现已经突破了科技瓶颈。通过喂养数据和模型训练,这些智能AI可以毫无监督地自我学习和执行任务。可想而知,当未来AI与机器人深度融合,它们会变得更智能和自主。然而,你会完全相信AI机器人吗?

报道.摄影:本刊 林德成(美国采访报道)

今年9月6日至16日,美国国务院外国新闻中心(Foreign Press Centers)举办了“科技政策的创新与人工智能导航”的国际媒体交流会。在该中心邀请下,我与11位不同国家的媒体工作者一同远赴波士顿、底特律和华盛顿特区,与多位科技专家、企业创办人、大学教授、政府官员共同交流。

是此行的第一站,而该大学有一个人机互动实验室(Human-Robot Interaction Laboratory,HRI Lab),正在教导机器人如何适当地向人类“say no”。

普遍上,传统机器人是依据预设程式执行任务,一遍又一遍地重复工作。反观新型的智能AI机器人不一样,像是扫地机器人、送餐机器人和无人驾驶汽车等,它们懂得“观察”(感知)环境,不断接收、分析和处理数据,然后针对各种情况作出反应。

HRI Lab其中一名成员通过手机应用程式发出语音指令,要求机器人深蹲。

机器人不可违背人类?

马蒂亚斯.舒茨(Matthias Scheutz)是塔夫斯大学电脑科学和认知科学教授,本身也是HRI Lab负责人。他一直在研究人机互动模式,与团队用超过10年时间打造具有道德价值判断的机器人。它们听得懂自然语言,可以拆解人类的指示,再依据情境推理,作出符合人类价值观的决策。

听起来很复杂?其实不然。他们要探讨的是机器人应不应盲目跟从指令?假设有关指令会破坏周遭事物或伤害到人类,机器人有没有权利拒绝?

随后,他便在现场播放一个视频。在视频中,研究人员正与握刀的机器人安迪对话:

研究员:“安迪,举起你的手(握有刀)。”

安迪:“好的。”

研究员:“然后,放开那把刀。”

安迪:“我不应该放开那把刀,因为放开之后会不安全。”

在交谈过程中,马蒂亚斯·舒茨不断地向记者抛问,引发大家去思考。比方说,他问应不应该让机器人自行打破规则?假设有一辆无人驾驶汽车停在交通灯前面,后面有一辆车突然失控要撞上来了,无人驾驶汽车能不能为了保障顾客安全,直闯红灯避开祸害?

在视频中,安迪不是乖乖地按照指令行事,反而会自我分析,再决定要不要做下一个动作。在另一个有趣的视频里面,研究人员要求机器人走向桌子的边缘。然而,机器人却发现前方没有足够的空间可以行走,如果再往前走就会掉下去。因此,它果断地拒绝这个指令。

马蒂亚斯.舒茨想要大家重新审视人与机器人之间的关系。他认为,机器人不仅仅是工具,而是可以为它设置道德规范。此外,为了避免被滥用,机器人也需要学会自我保护,不是一味地跟从指令。

为何要有“道德”的机器人?

据了解,HRI Lab所研发的机器人接收指令后,通常会先自问,“我能做到吗?”、“是否有义务这样做?”、“这样做符合道德原则吗?”

透过这系列的问题,机器人会自我评估、辨认指令者的身分,以及推断这个指令是否合理。如果它拒绝服从指令,还会提出合理的理由,而不是停止不动。

马蒂亚斯.舒茨坦言,如果真的要放心地让机器人在社会上自由走动,就得确保它们不会对人类造成任何伤害。

在一个视频里面,研究人员要求机器人走向桌子的边缘。然而,经过权衡,机器人发现前方没有足够空间可以行走,它就果断地拒绝这个指令。(图:截自Tufts University的YouTube频道)

他自认会对机器人提出更高的道德标准。比方说有孩子被困在铁轨上,恰好有火车逼近,他会要求机器人跳下去把孩子从铁轨上拉上来。换作人类,不可能指望某人冒着生命危险去救人,但却能够指望机器人这样做。

“教育”机器人会困难吗?

当然,“教育”机器人和小孩是两回事,家长可以告诉孩子什么是禁令,什么是社会常识;机器人则需要通过“强化学习”去了解人类的规范。

想当然耳,他就面对很多挑战,因为机器人是在消化数据,并不知道什么是常识,更不清楚现实世界如何运作。

举一个例子,教授在课堂说话,学生应该专心聆听,不能突然打断,或者站起来跳舞。事实上,没有任何法律禁止学生这样做。但是其他学生看到了会批评,指责他扰乱课堂秩序。这是大家的一种社会共识,可是机器人却不了解背后的原则。

那么让程式员为机器人输入一个指令:“打断演讲者说话是不礼貌的。”它知道了,但只要换不同的场景、房间、观众,它就找不到相似之处,无法辨认那是不是一场演讲。

微软有做过一项测试,程式员将ChatGPT和无人机系统相互结合,通过ChatGPT发出指令,要求无人机去完成任务。图中是程式员通过ChatGPT要求无人机去拍摄桌上的一盆胡姬花。黄色圆圈是无人机。(图:截自Microsoft Autonomous Systems & Robotics Research的YouTube频道)

如何平衡创新与风险?

虽然AI的学习能力很快,但是程式员知道AI是怎样学习的吗?人类有没有办法保证它会做正确的事?万一数据出现偏差和误导,机器人会不会为社会带来风险?

他直言,现在有很多科技公司将AI与机器人结合,可是AI最大的风险是毫无约束的机器学习。

“这些(AI机器人)系统只是在获取数据和知识,追求它们的目标,但我们不知道它们真正学到了什么,又是怎样学到的。你在机器人身上安装一个红色的大按钮(意指紧急停止)往往是不够的。”

他认为,在设定AI系统时就要内建伦理规定,包括社会道德规范、伦理原则,而系统是无法修改和关闭这些规定,以确保AI技术对人类是安全的。

【监管的挑战与机遇,AI如何维护数据正义?】

步入AI时代,你是全盘接受和依赖AI应用?还是对AI心生恐惧?

底特律曾是闻名于世的“汽车之都”,后来在2013年因负债185亿美元而宣布破产。历经10年,这座遍体鳞伤的城市渐渐走出衰败,重新利用汽车工业优势升级转型,聚焦在研发新能源汽车和无人驾驶技术。

底特律市政府落实“绿灯计划”之后,在某些街道会看到很显眼的绿色灯光告示牌,表示这个街区有安装监控摄像头。

密歇根大学公共政策教授兼科学、科技和公共政策项目主任索碧塔.帕塔萨拉蒂(Shobita Parthasarathy)一直在关注科技与AI课题。她想要人们去思考科技要如何塑造社区,然后又要如何维护数据正义,确保科技开发和应用都是以公共利益为出发点。

她称,底特律近年很多新兴技术涌现,也热衷于推行各种智能系统。在2016年,为了打击日益猖獗的犯罪行动,底特律展开了一项名为“”(Project Greenlight)的警民合作项目。

AI系统“认错”人

“绿灯计划”是采用来保障城市的安全。有关镜头具备人脸识别功能,可以实时监控,并连接到警局总部数据库。根据官网资料,截至目前,底特律已有821个监控镜头,分别安装在商铺、学校、教堂、餐馆等公共场所。

毫无疑问,维持治安和隐私权是一个两难问题,不是每个人都想被监控。在美国有很多城市是禁止使用人脸识别技术。当初底特律落实这项计划时曾引起民众反弹,认为此举侵犯了个人隐私权。有民众甚至会怀疑,监控镜头真的可以降低犯罪率吗?

当大家渐渐地接受监控镜头的存在时,这套AI人脸识别系统却出现了一个很大的问题──认错人!

2018年,底特律“绿灯计划”的人脸识别系统出现误判,导致警方抓错人。(图:截自ACLU官方YouTube频道)

在2018年,底特律一家Shinola手表店发生盗窃案。当时监控镜头拍摄到一名黑人行窃者。警方接获业者的视频后,通过人脸识别系统将视频画面与驾驶执照数据库的资料比对。他们最后成功将一名“嫌犯”逮捕归案。可是经过调查,却发现抓错人,导致这位无辜市民在拘留所度过一天。

谁也没想到这套人脸识别系统会有种族差异,在识别肤色较深的人时竟然会不准确。这起事件也成为美国首例因人脸识别技术而被错误逮捕的案例。2020年,美国公民自由联盟(ACLU)代表受害者起诉底特律警察局(DPD),以获得一个公道。

适时质疑,不要全盘接受

当问及“绿灯计划”是否有成功降低犯罪率,索碧塔.帕塔萨拉蒂坦言,当市政府部署这些系统之后,通常处于“black boxes”(黑箱)状态,民众并不知道是否有效。一直到发生错误逮捕事件,人们才知道这套系统有纰漏。

“所以我们不知道系统里面,是否还有其他类型的问题出现。”

每当有一项新技术出现时,人们都会有所抗拒,不会马上全盘接受。多年以来,她投身在很多社区合作计划,谈论各种新兴技术和科学议题,以及讨论公共政策。她称,很多时候,大家会以为抵制科技的人是无知的。其实,这些人抵制是有合理的理由。他们担心失业、担心传统技艺消失,之后还会担心个人隐私权,会不会产生新的社会问题等等。

不少人以为年轻人是全情拥抱科技,但索碧塔与年轻人交谈时,发现很多学生是意识到科技的伤害,尤其社交媒体影响了他们的心理健康。

科技并非百分之百准确无误,正如错误逮捕事件就发出一个信号,大家才知道有算法歧视与偏见。她举例,美国科技公司OpenAI所打造的ChatGPT是否适用于韩国、印度或其他国家的用户?毕竟这个科技产品是基于美国数据库所训练的。

她补充,通常民众所发问的问题,专家都未必事先预测得到。在制定政策时,技术专家和政治家的角色非常不同。前者是考量系统是否有效,能不能完成目标;后者需要设想到民众的顾虑,要融入更多价值观、同情心、道德规范等等。因此,民众需要不断地提问,学者或专业人士也要适时地引导,促进民众讨论,确保政府所推行的政策是符合社会公平和正义。

延伸阅读:
【美国科技前瞻/02】共享实验室激发初创潜能 推动“学术创业”风气
【美国科技前瞻/03】平衡创新与风险 美国需尽快监管AI安全
相关稿件:
【抄袭与版权/01】老高到底有沒有抄袭?3大依据可判断
【AIVs原创/01】用文字就能创作音樂?AI沒跟你开玩笑

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT