人工智能無好壞,取決於我們對其使用的方式。只有通過道德倫理的深思熟慮,我們才能更好地開發人工智能技術,確保其對人類社會產生正面而深遠的影響。
上個星期,世界經濟論壇在迪拜舉行的全球未來理事會會議,提出了個很實際的問題:人工智能的發展,是好是壞?然後專家說:是看誰在使用。
ADVERTISEMENT
用戶決定人工智能的好壞處,這句確實一針見血。因為,人工智能其實就是個工具,一個歸類為電腦軟件,幫人類處理龐大資訊或進行特定工作的工具。既然是工具,那就沒有所謂好壞之分。
你不能說暗器沒武德,而是使用暗器的人不講武德。暗器是死的,不會莫名的飛出去扎別人的背後。而人是活的,有明確的主觀意識去決定要不要把暗器投出去。這跟各種人工智能一樣。打個比方,我們選個用來生成圖片的人工智能,用戶能用這個人工智能來設計海報、產品,甚至室內設計圖;用戶也能用它來移花接木,可能是無中生有的把某人“P”進某些場景裡,也可能是“P”別人的裸照。
人工智能本身無法判斷用戶輸入的指令是“好”還是“壞”,只能依賴編程人員來持續增加人工智能的功能,使其能歸類用戶指令,接著根據編程人員的指令來選擇是否執行用戶的指令。
以此為基礎,我們若要人工智能只處理符合道德倫理的指令,就得依賴編程人員來制定符合道德倫理的指令,使其不處理所有有違三觀的用戶指令。
由人性做出的選擇,也才能用適用於人類的道德觀去評論好壞。人工智能沒有自我意識,所以就把它當作工具來反饋其優劣。接著,許多關於道德問題的探討,就容易多了。
首先,人工智能是否具有自我意識和道德責任?答案是沒有。人工智能的無意識和無自我意識性質與哲學上的唯物主義及心靈哲學有關。
從唯物主義的觀點看,人工智能只是一系列的算法和數據處理,沒有意識或主觀體驗。只有擁有意識的實體才能具有道德責任,人工智能不具備道德責任,因為它沒有自我意識。
接著,我們看看人工智能的倫理問題。如果人工智能能夠模仿人類的行為,包括模擬情感和社交互動,那我們是否應該賦予它某種程度的道德責任?
何謂模仿行為與承擔責任?打個比方,汽車的自動化駕駛若撞傷了路人,是車主該負責任嗎?還是編程自動化駕駛的汽車公司?
這個嘛,我們就引用一篇BBC去年關於自動駕駛的一篇報道。報道說,目前仍未有明確的法律定論。但若自動駕駛的時代來臨,人類不應該承擔法律責任。
報道引述英國法律改革委員會表示,在自動駕駛車輛上,人類只是使用者,所以承受不同的法律責任。然而,若發生意外,汽車公司要倒黴。這情況,你能想像一下,若有一天,長途巴士刮花了其他汽車,乘客需要負責任嗎?不,是巴士司機要負責任。
但若是駕駛輔助程序就不一樣了。在2019年,就有個司機因為使用特斯拉的駕駛輔助程序而發生意外。判決最終決定,是司機的錯,因為沒有遵守手冊內的指示,也就是司機必須對汽車保持掌控,就算是啟動駕駛輔助程序。
這判決的切入角度是:軟件開發商已經告知用戶智能駕駛程序的不足,那麼因為程序不足而發生意外,用戶就得負責任。來點簡單的例子,我已經提醒你咖啡很燙了,你還一口氣喝完,你能怪我嗎?
人工智能無好壞,取決於我們對其使用的方式。只有通過道德倫理的深思熟慮,我們才能更好地開發人工智能技術,確保其對人類社會產生正面而深遠的影響,而不是設計出一個會破壞社會和諧,或者誇張點,會滅掉人類的天網(Skynet,阿諾施瓦辛格主演的《Terminator魔鬼終結者》電影系列內,擁有自我智能的電腦系統)。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT