(首尔22日综合电)一连两天在韩国首尔举行的第二届全球人工智能安全峰会周三圆满落幕。在这项有多国政府出席的峰会上,世界最大的一些科技公司承诺会安全地开发和使用他们的技术,而且将共同合作,防范人工智能(AI)的危险。
ADVERTISEMENT
包括韩国三星电子、韩国科技巨头Naver以及美国谷歌和国际商业机器(IBM)在内的14家公司在峰会最后一天一致同意,在推动这尖端领域向前发展的过程中“将风险降至最低”。
他们在“首尔人工智能商业承诺”中表示:“我们致力于继续推进研究工作,以促进AI模型的负责任开发。”
这些公司也承诺“最大限度地降低风险,并对能力和安全性进行稳健的评估”。
韩英联办峰会
这项为期两天的峰会是由韩国和英国联办,来自OpenAI和谷歌旗下人工智能公司DeepMind等全球人工智能公司的高层齐聚一堂,共同寻找确保该技术安全使用的方法。
他们的承诺是建立在去年于英国布莱切利园举行的首届全球人工智能安全峰会所达成共识的基础上。
根据新的承诺,这些公司也同意通过AI技术帮助社会弱势群体,但没有详细说明会如何办到。
较早前,包括ChatGPT开发商OpenAI谷歌DeepMind和美国人工智能初创公司Anthropic在内的16家科技公司也在周二誓言会做出新的安全承诺,其中包括分享他们如何评估他们技术的风险。
这包括哪些风险“被视为无法容忍”,以及公司将采取哪些措施来确保不跨越这些门槛。
专家警告监管机构难管制
不过,专家警告,当AI行业发展如此迅速时,监管机构很难理解和管理AI。
英国牛津非营利研究机构“人工智能治理中心”的政策负责人安德尔荣说:“我认为这是一个非常非常大的问题。”
“我预计,应对人工智能将成为未来数十年世界各国政府面临的最大挑战之一。”
他说:“世界需要对这些最先进的通用模型的风险有某种共同的理解。”
英国科学、创新和技术部长多兰周三在首尔说:“随着AI发展步伐的加快,如果我们要应对风险,我们就必须跟上这个速度。”
她表示,下一届在法国举行的AI峰会将有更多机会在测试和评估新技术方面“突破界限”。
多兰说:“与此同时,我们必须将注意力转向这些模型之外的风险缓解,确保整个社会能够抵御AI带来的风险。”
ChatGPT在2022年发布后不久就取得极大成功,引发生成式人工智能的“淘金热”,世界各地的科技公司投入数十亿美元开发本身的模型。
这种AI模型可根据简单的提示生成文本、照片、音频甚至视频,其支持者宣称它们是 一项突破,将改善世界各地的生活和商业。
然而,批评者、维权人士和政府警告,它们可能会以多种方式遭滥用,包括通过虚假新闻报道或政客的“深度伪造”图片和视频来操纵选民。
许多人呼吁制定国际标准来管理人工智能的开发和使用。
专家:需全球合作思考AI问题
领导一个评估AI模型的独立非营利组织Humane Intelligence的人工智能伦理专家乔杜里表示:“我认为人们越来越认识到,我们需要全球合作来真正思考AI的问题和危害。AI不分国界。”
乔杜里告诉法新社,令人担忧的不仅仅是科幻噩梦中的“逃跑的AI”,还有该领域严重的不平等问题。
她在首尔峰会场边告诉法新社:“所有AI只是被构建、开发出来的,而且利润是由非常非常少的人和组织获得。”
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT