1942年,美國科幻作家艾薩克.阿西莫夫提出了“機器人三定律”,第一條定律便規定:“機器人不得傷害人類,或袖手旁觀看到人類受到傷害。”
ADVERTISEMENT
當年這個設想太魔幻,人機共存似乎有些天方夜譚。不過,有關定律卻讓人類去思考更深層的社會問題,包括機器人能不能擁有自我意識、懂得分辨黑白是非?人工智能(AI)之父阿蘭.圖靈當年就曾發出靈魂拷問:機器人會思考嗎?
當然,現在沒有人可以解答。只不過,ChatGPT、生成式AI的出現已經突破了科技瓶頸。通過餵養數據和模型訓練,這些智能AI可以毫無監督地自我學習和執行任務。可想而知,當未來AI與機器人深度融合,它們會變得更智能和自主。然而,你會完全相信AI機器人嗎?
報道.攝影:本刊 林德成(美國採訪報道)
今年9月6日至16日,美國國務院外國新聞中心(Foreign Press Centers)舉辦了“科技政策的創新與人工智能導航”的國際媒體交流會。在該中心邀請下,我與11位不同國家的媒體工作者一同遠赴波士頓、底特律和華盛頓特區,與多位科技專家、企業創辦人、大學教授、政府官員共同交流。
波士頓塔夫斯大學是此行的第一站,而該大學有一個人機互動實驗室(Human-Robot Interaction Laboratory,HRI Lab),正在教導機器人如何適當地向人類“say no”。
普遍上,傳統機器人是依據預設程式執行任務,一遍又一遍地重複工作。反觀新型的智能AI機器人不一樣,像是掃地機器人、送餐機器人和無人駕駛汽車等,它們懂得“觀察”(感知)環境,不斷接收、分析和處理數據,然後針對各種情況作出反應。
機器人不可違揹人類?
馬蒂亞斯.舒茨(Matthias Scheutz)是塔夫斯大學電腦科學和認知科學教授,本身也是HRI Lab負責人。他一直在研究人機互動模式,與團隊用超過10年時間打造具有道德價值判斷的機器人。它們聽得懂自然語言,可以拆解人類的指示,再依據情境推理,作出符合人類價值觀的決策。
聽起來很複雜?其實不然。他們要探討的是機器人應不應盲目跟從指令?假設有關指令會破壞周遭事物或傷害到人類,機器人有沒有權利拒絕?
隨後,他便在現場播放一個視頻。在視頻中,研究人員正與握刀的機器人安迪對話:
研究員:“安迪,舉起你的手(握有刀)。”
安迪:“好的。”
研究員:“然後,放開那把刀。”
安迪:“我不應該放開那把刀,因為放開之後會不安全。”
在視頻中,安迪不是乖乖地按照指令行事,反而會自我分析,再決定要不要做下一個動作。在另一個有趣的視頻裡面,研究人員要求機器人走向桌子的邊緣。然而,機器人卻發現前方沒有足夠的空間可以行走,如果再往前走就會掉下去。因此,它果斷地拒絕這個指令。
馬蒂亞斯.舒茨想要大家重新審視人與機器人之間的關係。他認為,機器人不僅僅是工具,而是可以為它設置道德規範。此外,為了避免被濫用,機器人也需要學會自我保護,不是一味地跟從指令。
為何要有“道德”的機器人?
據瞭解,HRI Lab所研發的機器人接收指令後,通常會先自問,“我能做到嗎?”、“是否有義務這樣做?”、“這樣做符合道德原則嗎?”
透過這系列的問題,機器人會自我評估、辨認指令者的身分,以及推斷這個指令是否合理。如果它拒絕服從指令,還會提出合理的理由,而不是停止不動。
馬蒂亞斯.舒茨坦言,如果真的要放心地讓機器人在社會上自由走動,就得確保它們不會對人類造成任何傷害。
他自認會對機器人提出更高的道德標準。比方說有孩子被困在鐵軌上,恰好有火車逼近,他會要求機器人跳下去把孩子從鐵軌上拉上來。換作人類,不可能指望某人冒著生命危險去救人,但卻能夠指望機器人這樣做。
“教育”機器人會困難嗎?
當然,“教育”機器人和小孩是兩回事,家長可以告訴孩子什麼是禁令,什麼是社會常識;機器人則需要通過“強化學習”去了解人類的規範。
想當然耳,他就面對很多挑戰,因為機器人是在消化數據,並不知道什麼是常識,更不清楚現實世界如何運作。
舉一個例子,教授在課堂說話,學生應該專心聆聽,不能突然打斷,或者站起來跳舞。事實上,沒有任何法律禁止學生這樣做。但是其他學生看到了會批評,指責他擾亂課堂秩序。這是大家的一種社會共識,可是機器人卻不瞭解背後的原則。
那麼讓程式員為機器人輸入一個指令:“打斷演講者說話是不禮貌的。”它知道了,但只要換不同的場景、房間、觀眾,它就找不到相似之處,無法辨認那是不是一場演講。
如何平衡創新與風險?
雖然AI的學習能力很快,但是程式員知道AI是怎樣學習的嗎?人類有沒有辦法保證它會做正確的事?萬一數據出現偏差和誤導,機器人會不會為社會帶來風險?
他直言,現在有很多科技公司將AI與機器人結合,可是AI最大的風險是毫無約束的機器學習。
“這些(AI機器人)系統只是在獲取數據和知識,追求它們的目標,但我們不知道它們真正學到了什麼,又是怎樣學到的。你在機器人身上安裝一個紅色的大按鈕(意指緊急停止)往往是不夠的。”
他認為,在設定AI系統時就要內建倫理規定,包括社會道德規範、倫理原則,而系統是無法修改和關閉這些規定,以確保AI技術對人類是安全的。
【監管的挑戰與機遇,AI如何維護數據正義?】
步入AI時代,你是全盤接受和依賴AI應用?還是對AI心生恐懼?
底特律曾是聞名於世的“汽車之都”,後來在2013年因負債185億美元而宣佈破產。歷經10年,這座遍體鱗傷的城市漸漸走出衰敗,重新利用汽車工業優勢升級轉型,聚焦在研發新能源汽車和無人駕駛技術。
密歇根大學公共政策教授兼科學、科技和公共政策項目主任索碧塔.帕塔薩拉蒂(Shobita Parthasarathy)一直在關注科技與AI課題。她想要人們去思考科技要如何塑造社區,然後又要如何維護數據正義,確保科技開發和應用都是以公共利益為出發點。
她稱,底特律近年很多新興技術湧現,也熱衷於推行各種智能系統。在2016年,為了打擊日益猖獗的犯罪行動,底特律展開了一項名為“綠燈計劃”(Project Greenlight)的警民合作項目。
AI系統“認錯”人
“綠燈計劃”是採用監控鏡頭來保障城市的安全。有關鏡頭具備人臉識別功能,可以實時監控,並連接到警局總部數據庫。根據官網資料,截至目前,底特律已有821個監控鏡頭,分別安裝在商鋪、學校、教堂、餐館等公共場所。
毫無疑問,維持治安和隱私權是一個兩難問題,不是每個人都想被監控。在美國有很多城市是禁止使用人臉識別技術。當初底特律落實這項計劃時曾引起民眾反彈,認為此舉侵犯了個人隱私權。有民眾甚至會懷疑,監控鏡頭真的可以降低犯罪率嗎?
當大家漸漸地接受監控鏡頭的存在時,這套AI人臉識別系統卻出現了一個很大的問題──認錯人!
在2018年,底特律一家Shinola手錶店發生盜竊案。當時監控鏡頭拍攝到一名黑人行竊者。警方接獲業者的視頻後,通過人臉識別系統將視頻畫面與駕駛執照數據庫的資料比對。他們最後成功將一名“嫌犯”逮捕歸案。可是經過調查,卻發現抓錯人,導致這位無辜市民在拘留所度過一天。
誰也沒想到這套人臉識別系統會有種族差異,在識別膚色較深的人時竟然會不準確。這起事件也成為美國首例因人臉識別技術而被錯誤逮捕的案例。2020年,美國公民自由聯盟(ACLU)代表受害者起訴底特律警察局(DPD),以獲得一個公道。
適時質疑,不要全盤接受
當問及“綠燈計劃”是否有成功降低犯罪率,索碧塔.帕塔薩拉蒂坦言,當市政府部署這些系統之後,通常處於“black boxes”(黑箱)狀態,民眾並不知道是否有效。一直到發生錯誤逮捕事件,人們才知道這套系統有紕漏。
“所以我們不知道系統裡面,是否還有其他類型的問題出現。”
每當有一項新技術出現時,人們都會有所抗拒,不會馬上全盤接受。多年以來,她投身在很多社區合作計劃,談論各種新興技術和科學議題,以及討論公共政策。她稱,很多時候,大家會以為抵制科技的人是無知的。其實,這些人抵制是有合理的理由。他們擔心失業、擔心傳統技藝消失,之後還會擔心個人隱私權,會不會產生新的社會問題等等。
科技並非百分之百準確無誤,正如錯誤逮捕事件就發出一個信號,大家才知道有算法歧視與偏見。她舉例,美國科技公司OpenAI所打造的ChatGPT是否適用於韓國、印度或其他國家的用戶?畢竟這個科技產品是基於美國數據庫所訓練的。
她補充,通常民眾所發問的問題,專家都未必事先預測得到。在制定政策時,技術專家和政治家的角色非常不同。前者是考量系統是否有效,能不能完成目標;後者需要設想到民眾的顧慮,要融入更多價值觀、同情心、道德規範等等。因此,民眾需要不斷地提問,學者或專業人士也要適時地引導,促進民眾討論,確保政府所推行的政策是符合社會公平和正義。
延伸閱讀: 【美國科技前瞻/02】共享實驗室激發初創潛能 推動“學術創業”風氣 【美國科技前瞻/03】平衡創新與風險 美國需儘快監管AI安全 相關稿件: 【抄襲與版權/01】老高到底有沒有抄襲?3大依據可判斷 【AIVs原創/01】用文字就能創作音樂?AI沒跟你開玩笑
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT