(多伦多29日法新电)被称为“人工智能(AI)教父”的AI研究先驱辛顿周三敦促各国政府,应介入并确保机器人不会控制社会。
他曾在今年5月跃上新闻头条。当时他宣布,已辞去在谷歌的10年工作,以便能更自由的谈论AI的危险。这是在美国AI公司OpenAI打造出热门AI聊天机器人ChatGPT,引发世界无限想像力之后不久。
ADVERTISEMENT
备受尊敬的AI科学家辛顿,在多伦多大学举行的Collision科技大会上,向座无虚席的观众发表讲话。
这项北美最大的科技会议,聚集了3万多名初创公司创始人、投资者和科技行业工作者。他们大多希望学习如何驾驭AI浪潮,而不是听到关于其危险的教训或呼吁政府干预。
辛顿说,“在AI比我们更聪明之前,我认为应该鼓励开发者,投入更大量工作,来理解AI将如何试图夺走控制权”。
他指出,“现在有99个非常聪明的人,试图让AI变得更好,还有一个非常聪明的人,试图弄清楚如何阻止AI接管AI,也许你想更加平衡。”
辛顿警告,应该认真看待AI的风险。 “我认为重要的是,让人们明白这不是科幻小说,这不仅仅是散布恐惧…这是一个我们必须考虑的真正风险,我们需要提前弄清楚如何应对”。
辛顿也对AI将加深不平等,表达忧虑。AI所带来的巨大生产力提升,将有利于富人而不是劳工。他说,“财富不会流向做这项工作的人,而是会让富人变得更富,这将会是一个非常糟糕的社会”。
辛顿也提到ChatGPT式机器人创造的“假新闻”的危险,并表示他希望AI生成的内容,可以像中央银行为现金加浮水印一样,进行标记。
他说,“例如,尝试将所有假货标记为假货,非常重要。我们是否可以在技术上做到这一点,我不知道”。
欧盟正在考虑在其《AI法案》中采用这种技术,该法案将为欧洲的AI制定规则,目前正在由立法者进行谈判。
辛顿列出的AI危险与会议讨论形成鲜明对比,会议讨论较少涉及安全和威胁,更多的是抓住ChatGPT之后创造的机会。
风险投资家莎拉·郭将AI视为一种生存威胁的悲观论调为时过早,并引用了另一位AI大师吴恩达的话,将其比作“谈论火星上的人口过剩”。
她还对AI监管措施提出了警告,即政府干预会在现有企业有机会惠及卫生、教育或科学等行业之前,就对其进行限制。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT