(吉隆坡27日訊)臺灣中央研究院法律學研究所特聘研究員兼所長李建良教授指出,網絡世界已經是人類現在生活的地方,因此必須要有法律的規範。
他認為,人們不應該只單純抱持著管制網絡,便是侵害到言論自由的想法。
ADVERTISEMENT
“我們在實體世界裡,有種種規範,那為什麼當今天變成數位時代的時候,就變成說因為言論自由所以我們不能管?”
他接受星洲日報專訪時表示,事實上數位世界已經是一個對我們而言更為重要的世界。
因此他認為,既然現實世界中已有法律去規範,那麼對數位世界進行規範便是嘗試在數位世界中建立法治。
受邀擔任林連玉講座主講人
李建良教授將應林連玉基金的邀請,於5月1日前來我國擔任第27屆林連玉講座主講人,講題是“人工智慧與民主──數位社會意見形成的法反思”。
針對這一主題,李教授接受本報線上訪問時強調,當人工智能進入到人類的生活,而且是我們生活中必備的過程,是我們的需要的時候,就必須制定法律的規範。
他以蓋房子為例,蓋房子存在一定的危險性,因此才有法律規定,必須要有執照才能進行建造工程。同理,法律也應對科技的發展所可能造成的危害、危險進行規範,這兩者之間應該是相輔相成的一個關係。
“數位社會跟實體社會一樣,不能說一個社會沒有法律規範。”
確保民主決定結果理性
李建良教授表示,在數位平臺上面,因為演算法會對民主社會中的意見形成過程造成一定的影響,因此應有法律去進行規範,我們需要有一些防衛機制來確保我們民主的決定的結果的理性。
他解釋,網絡世界裡有很多東西是會影響到我們的民主決定,如果不進行防制,選舉出來的結果可能是在一個有民主的形式下,選出來的人卻是一個不怎麼擁護民主的人。
他強調,如果實體社會是可以受到管制和規範的話,那數位世界理論上也可以。
他指出,我們現在是生活在數位世界裡,演算法多多少少會影響到我們所看到的、聽到的、讀到的。
演算法所帶來的影響可以說是一體兩面的。李建良指出,演算法是機器學習,機器要學習什麼,其實是人告訴它要學習什麼。在大部分時候,演算法都會傾向於在社交媒體上抓取帶有比較情緒性或挑釁性的文字,至於較為溫和的文字或看起來沒有對錯的文字,演算法則可能不太會去對這些文字作出反應,也不會去抓取這些文字。
“所以,比如說有些政治字眼,或者有一些很強烈的情緒反應,演算法會去抓這些訊息,之後,演算法還會再回送(這些訊息)過來。
演算法會把意見給極端化
“所以當你點擊一個比較具有特別政治性的訊息時,演算法可能會回送給你,或者說會推薦類似的東西過來。”
他指出,在這種情況下,演算法會在一定程度上把這些意見給極端化或兩極化,促使比較中間的意見難以接觸到人群。
“如果我們所理解的民主,是一個大家在各種不同的意見下溝通後取得一個共識,那人工智能演算法目前在數位時代下,對民主而言可以說是一個負面的影響。”
他補充,人工智能在民意形成的過程中不一定只是影響著我們的政治意見的形成,也影響著我們的各種生活、經濟和消費形態,因此我們也應關注人工智能對日常生活中的公共意見形成所帶來的影響。
人工智能融入司法程序中
另一方面,受詢及有一些國家已經開始把人工智能融入到司法程序中,李建良表示,如果是把人工智能當作是一個輔助工具,比如使用人工智能來收集資料、整理案情,或是進行一些簡單的案件分析,這確實帶來了正面的影響,因為有助於增加司法的效率,並減輕法院的負擔。
至於是否應該使用人工智能的演算結果來作為量刑的參考,則有兩種不同的看法:一種是認為這會提高量刑的正確性和公平性;另一種看法則是認為,每一個案子都不完全百分之百一樣,因此難以通過人工智能的演算結果來作為參考進行判斷。
他表示,是否讓人工智能來當法官,更多的是由我們的價值判斷來決定是否接受。
“受審判時,不是人在判,是一個技術在判,這到最後不是科學上可不可能的問題,而是在於說一個人的價值決定的問題,我們要不要接受這樣一個情形。
“而我個人是比較否定的態度。就算是可以,我認為那不是我們民主法治價值下面應該有的一種制度。”
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT