在“明辨是非”這類關乎到道德判斷的問題上,AI的侷限性尤其突出。人類的道德觀念、情感共鳴和文化理解,目前階段仍然不是AI所能簡單模仿和理解的。因此,在面對涉及道德和倫理層面的複雜問題需要判斷時,AI系統無疑仍然需要人類的輔助和監督,以減少誤判。
近年來臉書等社交媒體平臺紛紛採用人工智能(AI)技術來過濾及審核內容,以防止色情詐騙及憎恨言論等不良信息的傳播。但顯而易見的是,這項技術在實際運用中卻是碰了諸多問題。日前《星洲日報》的臉書,就因為刊登一則“男子投資共享冰箱被騙30萬”的新聞而遭到賬號封殺。這事件不禁讓人們思考,究竟使用Al對需要進行道德審批的文字內容進行審核,其分析分辨標準能做到什麼程度?
從另一角度來看,這一烏龍事件凸顯了利用Al進行審核存在的侷限。不可否認,AI的參與讓平臺在海量信息過濾上,可以更加高效。面對每分每秒數以億計的信息湧入,如果完全依賴人力審核,不僅會耗費大量時間與資源,且難以做到實時監管。
但是,AI的“冰冷無腦”屬性也帶來了明顯的缺陷。正如星洲臉書事件顯示,眼下AI仍然缺乏人類在道德和倫理層次上的深度理解力,其判斷標準往往以關鍵詞或圖像特徵為主,有時會出現未能理解信息的完整上下文,更不要說隱藏在文字背後的勸戒用意。
星洲臉書上載的新聞本意是揭露詐騙騙局、提醒網民防範,AI卻因片面理解將其誤判為詐騙信息,這無疑暴露了AI在道德判斷與語言理解上的不足。
在“明辨是非”這類關乎到道德判斷的問題上,AI的侷限性尤其突出。人類的道德觀念、情感共鳴和文化理解,目前階段仍然不是AI所能簡單模仿和理解的。因此,在面對涉及道德和倫理層面的複雜問題需要判斷時,AI系統無疑仍然需要人類的輔助和監督,以減少誤判。
只不過許多網絡平臺在追求低營運成本,及過度信賴AI高效率的同時,選擇放棄或減少人類監督。然而,在Al的“情感”及“道德”認知和分辨度,尚未能提升到人類層面時,因誤封事件引發更多“烏龍”笑話,相信仍然會持續出現。
雖然Al目前存在道德判斷,及複雜文字內容理解方面的缺陷,但考慮網絡平臺的海量信息,Al在信息篩選上所展現出了的高效優勢,其監控角色仍然是不可取代的。只不過我們希望眾多媒體平臺在利用AI審核的同時,仍需引入人類的“監督”力量,形成“人機協作”的審核機制,才能避免賬號錯誤封殺的烏龍事件。
ADVERTISEMENT
热门新闻
百格视频
你也可能感兴趣
ADVERTISEMENT