2023年,人工智能(AI)領域出現一個分水嶺,ChatGPT、Midjourney、Stable Diffusion等生成式AI應用橫空出世,徹底改變了傳統產業的模式,以及人機互動的方式。
ADVERTISEMENT
然而,AI爆炸式的成長,其背後隱藏很多潛在風險,人們擔心有朝一日會失控。多年前的“深偽”(Deepfake)技術已讓世人見識到真假難辨的世代來臨。如今生成式AI崛起,如果沒有加以約束和監管,恐怕會引發網絡安全問題、個資和版權爭議、假消息氾濫等現象。
許多國家政府已經開始評估AI產業,想要採取適當的監管措施。美國參議院早前在9月份就舉行了“人工智能洞察論壇”閉門會議,邀請二十多家科技公司巨頭一起對話。這批科技領袖皆有共識,認同政府應該監管AI發展。
報道.攝影:本刊 林德成(美國採訪報道)
每一次的科技革命都會重新塑造地緣政治和經濟格局。近年,AI科技成為了各國的戰略資源,誰能率先掌握新興技術和具有創新力,便能夠在經濟、軍事領域擁有話語權。
多年前,美國政府已經為AI做準備,併發布了《國家AI研發戰略計劃》,以便能集中資源,促進國家的AI發展。同時,政府也宣佈《AI權利法案藍圖》,設立了5項基本原則,確保民眾獲得應有的科技權益。包括一個安全有效的AI系統、避免算法歧視、保護數據隱私權、民眾使用系統時,需要理解背後的運作,以及民眾使用AI系統時可以選擇退出。
AI擁有巨大的發展潛能,但又有很多未知挑戰。因此,美國政府希望大型科技公司能夠負責任地開發AI產品,並在發佈之前確保產品是安全、可靠和值得信賴。在今年7月份,谷歌、微軟、Meta、亞馬遜、OpenAI等7家科技巨頭與拜登會面後,簽署了自願承諾書,答應會自我監管AI風險,以消除公眾疑慮。兩個月後,又有8家科技公司簽署第二輪的自願承諾書,當中就有Adobe、IBM、英偉達、Palantir等等,致力打造安全的AI系統。
下屆總統選舉,如何應對AI假消息?
面對生成式AI所衍生的風險,科技公司有哪些良策?
畢竟生成式AI太方便了,只需輸入指令便能製作各種虛假消息和照片,肆意造謠、誤導、扭曲價值觀和帶動輿論風向,加劇政治分裂。美國即將在2024年舉行總統選舉,《華爾街日報》6月6日就曾報道,生成式AI技術會讓大家擁有一個製作虛假政治內容的工具,網絡平臺有可能充斥大量假消息和影像視頻,會對選舉造成重大沖擊。
在美國國務院外國新聞中心,負責網絡安全和新興技術的美國副國家安全顧問安妮.紐伯格(Anne Neuberger)向媒體記者透露,為了降低假消息的危害,一些科技公司承諾會在視頻或圖像添加水印,標記出那些由AI生成的內容。“我們認為在打擊假消息方面特別需要(水印系統),以便能夠教育我們的民眾去找水印。”
此外,在應對這些虛假消息,必須要有一套應對措施。她舉例,幾個月前,有人在推特上發佈了一張五角大樓著火的圖片。當地消防部門火速趕往現場,結果發現是假照片。隨後他們制定了一套應急方案。“我們也需要在州政府、聯邦政府和地方政府之間建立這樣的應急方案,好讓他們能隨時做好應對準備。”
打造“公益AI”,提升民眾福祉
安妮.紐伯格說,科技長期以來一直影響著外交政策。許多國家利用科技來推動經濟,吸引熟練勞動力、提高生產率以及促進經濟增長。
在規劃AI的未來方向時,她認為應該運用AI去促進全球可持續發展的目標,為人民福祉著想。美國和歐盟在今年1月份便籤署了一項關於AI的行政協議,涵蓋氣候變化、自然災害、醫療保健、能源和農業領域。
在醫療保健項目底下,雙方有11項合作計劃,其中包括建立更有效的癌症檢測模型和心臟治療模型。至於自然災害方面,AI在預測和模擬時可以發揮很重要的角色,讓有關單位和民眾可以採取緊急防備措施。
她補充,AI還能優化農耕流程。比方說氣溫升高,是否會有不同的種植方式?是不是應該採取不同的灌溉方式?
【應對AI的3大原則──安全、保障和信任】
在今年5月份,七國集團(G7)在日本廣島峰會上一致同意,認為需要有一個監管框架,包括如何監管和負責任地使用這些技術。目前,歐盟6月份已經通過《AI法案》草案,預計今年年底會審批通過,而美國暫時還在討論的階段。
美國國務院公共外交和公共事務副國務卿伊麗莎白.艾倫(Elizabeth Allen)認為,在應對新興科技和AI難題時,沒有任何一個國家能夠或不應該單獨解決這個問題,即使是美國也不能。大家必須合作,在談論的桌子上必須容納不同的聲音,包括政府的觀點,以及民間組織、倡導者、科技公司的意見。
“美國政府在處理新興科技和AI方面有3個原則──安全、保障和信任。事實上,信任就是一切的基礎。”她說,美國正在發揮領導的角色。他們意識到AI所帶來的風險,並努力地預防和監管。與此同時,美國政府也想把握新興科技和AI所帶來的機遇。
多種創新技術在改變世界
美國國務院關鍵和新興技術特使辦公室副特使塞特.森德博士(Dr. Seth Center)說,現在不僅僅是一種技術在改變世界,可能有四五種技術在改變著人類的生活。
他直言AI已經無所不在,每個人的手機裡面可能有15個不同的AI應用程式,所以,現在要和人對話都有些困難。除了AI,接下來量子信息科學有可能徹底顛覆電腦和密碼學。之後還有一系列的清潔技術,會有機會改變整個能源環境。如果再加上生物科技,情況就會變得更復雜。
當各個國家、公司想要在這些技術領域獲得優勢時,很自然地會引發一種動態競爭(competitive dynamic),無論是商業競爭或地緣政治競爭。為了鞏固美國在半導體領域的領先地位,美國政府為半導體行業提供超過520億美元的資金,希望在芯片領域有更多創新和發展。
當記者問若有其他公司的新興技術對美國構成國家安全威脅,是否會採取類似出口禁令的措施。塞特.森德博士答,美國政府是採取“小院子,高圍欄”(small yard, high fence)的戰略。如果發現某些新興技術會對國家安全造成威脅,他們會以同樣的標準去評估有關技術。
自願承諾書是一個框架
美國作為軍事大國,又是如何看待AI武器?他說,“理論上,AI將會無處不在,然後出現在社會的各個領域,包括軍事領域。因此,我們應該制定明確的標準,要如何用安全和負責任的方式去使用AI。各國政府應該對這些標準有一個基本的理解和共識,這樣至少可以降低錯判、意外事故和濫用的可能性。”
至於監管AI方面,美國政府仍處於起步階段。“許多人認為,也許我們需要類似國際原子能機構(IAEA)來監管AI。其實從第一次核武器測試到IAEA成立,前後花了12年時間。所以,你想像一下我們目前的階段,然後要用多長時間才能達成國際協議去建立一個機構。”
他提及,美國科技公司目前所簽署自願承諾書並沒有法律約束力。可是在進入實質的監管架構或談論如何監管時,這份承諾書就提供了一個參考框架。接著再依照“安全、保障和信任”這3個原則去管理人工智能系統的潛在風險。
延伸閱讀: 【美國科技前瞻/01】學會拒絕人類 AI機器人更自主更智能 【美國科技前瞻/02】共享實驗室激發初創潛能 推動“學術創業”風氣 相關稿件: 【AI詐騙/01】AI技術突飛猛進 網絡詐騙如虎添翼 【無人機飛安/01】體積雖小衝擊力大 無人機一飛限沖天
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT