(多倫多29日法新電)被稱為“人工智能(AI)教父”的AI研究先驅辛頓週三敦促各國政府,應介入並確保機器人不會控制社會。
他曾在今年5月躍上新聞頭條。當時他宣佈,已辭去在谷歌的10年工作,以便能更自由的談論AI的危險。這是在美國AI公司OpenAI打造出熱門AI聊天機器人ChatGPT,引發世界無限想像力之後不久。
ADVERTISEMENT
備受尊敬的AI科學家辛頓,在多倫多大學舉行的Collision科技大會上,向座無虛席的觀眾發表講話。
這項北美最大的科技會議,聚集了3萬多名初創公司創始人、投資者和科技行業工作者。他們大多希望學習如何駕馭AI浪潮,而不是聽到關於其危險的教訓或呼籲政府幹預。
辛頓說,“在AI比我們更聰明之前,我認為應該鼓勵開發者,投入更大量工作,來理解AI將如何試圖奪走控制權”。
他指出,“現在有99個非常聰明的人,試圖讓AI變得更好,還有一個非常聰明的人,試圖弄清楚如何阻止AI接管AI,也許你想更加平衡。”
辛頓警告,應該認真看待AI的風險。 “我認為重要的是,讓人們明白這不是科幻小說,這不僅僅是散佈恐懼…這是一個我們必須考慮的真正風險,我們需要提前弄清楚如何應對”。
辛頓也對AI將加深不平等,表達憂慮。AI所帶來的巨大生產力提升,將有利於富人而不是勞工。他說,“財富不會流向做這項工作的人,而是會讓富人變得更富,這將會是一個非常糟糕的社會”。
辛頓也提到ChatGPT式機器人創造的“假新聞”的危險,並表示他希望AI生成的內容,可以像中央銀行為現金加浮水印一樣,進行標記。
他說,“例如,嘗試將所有假貨標記為假貨,非常重要。我們是否可以在技術上做到這一點,我不知道”。
歐盟正在考慮在其《AI法案》中採用這種技術,該法案將為歐洲的AI制定規則,目前正在由立法者進行談判。
辛頓列出的AI危險與會議討論形成鮮明對比,會議討論較少涉及安全和威脅,更多的是抓住ChatGPT之後創造的機會。
風險投資家莎拉·郭將AI視為一種生存威脅的悲觀論調為時過早,並引用了另一位AI大師吳恩達的話,將其比作“談論火星上的人口過剩”。
她還對AI監管措施提出了警告,即政府幹預會在現有企業有機會惠及衛生、教育或科學等行業之前,就對其進行限制。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT