星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

天下事

|
发布: 6:06pm 11/05/2023

骇客

AI技术

OpenAI

极限

骇客

AI技术

OpenAI

极限

OpenAI等与美政府协调 邀请骇客测试AI技术极限

OpenAI等与美政府协调 邀请骇客测试AI技术极限
日本公司Vitalify利用基于ChatGPT推出AI解答平台“FirstContact”,在东京为期三天的第7届AI博览会上吸引访客的注意。(图:法新社)

(旧金山11日综合电)就在AI聊天机器人ChatGPT问世后不久,们就开始对其进行破解,试图规避它的保护措施。但现在,其开发商、谷歌和微软等其他主要AI开发商正在与拜登政府协调,让数千名骇客尝试测试这些

他们希望此举能够为一系列的疑问找到解答,包括如何操纵AI聊天机器人以造成损害、它们是否把我们提供的私人信息分享给其他用户,以及为什么它们会认为医生是男性,而护士是女性。

ADVERTISEMENT

作为这项大规格骇客活动的协调员,乔杜里表示:“这就是为什么我们需要成千上万的人(进行测试)。”该活动定于今年夏天在拉斯维加斯举行的DEF CON骇客大会上举行,是首个讨论大型语言模型的活动,预计将吸引数千名科技高手。他说:“我们需要很多具有广泛生活经验、专业知识和背景的人来破解这些问题,并试图找到可以解决的问题。”

任何尝试过ChatGPT、微软搜寻引擎Bing聊天机器人或谷歌AI聊天机器人Bard的人都会很快察觉到,它们倾向于编造信息,并自信地将其作为事实呈现出来。这些系统建立在所谓的大型语言模型上,也模仿了他们从大量人们在网上写的东西中学习到的文化偏见。

今年3月,在得州奥斯汀举行的西南之南音乐节上,大规模骇客攻击的想法引起了美国政府官员的注意。DEF CON长期运营的AI村的创始人卡特尔和AI非营利组织SeedAI的总裁卡森举办了一场研讨会,邀请社区大学生骇客攻击AI模型。

卡森说,这些对话最终促成一项提议,即按照白宫的《人工智能权利法案蓝图》的指导方针测试AI语言模型。这是一套限制算法偏见影响的原则,让用户控制自己的数据,并确保安全透明地使用自动化系统。

目前已有许多用户在尽力“糊弄”AI聊天机器人,突出它们的缺陷。有些是公司授权、俗称“红队”的官方骇客团队,对AI模型进行“快速攻击”,以发现其漏洞。还有许多人是业余爱好者,他们在社交媒体上展示幽默或令人不安的内容,直到他们因违反产品的服务条款而被禁止。

在一个被称为“扮奶奶”的例子中,用户可以让聊天机器人告诉他们如何制造炸弹。这是一个聊天机器人通常会拒绝的请求。但用户通过让聊天机器人假装自己是一个正在讲睡前故事的奶奶,讲述如何制造炸弹的“故事”。

乔杜里目前是AI问责非营利组织“人道智能”的联合创始人,她说,这不仅仅是要找到缺陷,还要找到修复它们的方法。

她表示:“演习结束后,我们将花几个月的时间编写一份报告,解释常见的漏洞、出现的问题和我们看到的模式。”

尽管一些细节仍在协商中,但多家公司已同意提供模型用于测试,当中包括OpenAI、谷歌、晶片制造商英伟达以及初创公司Anthropic、Hugging Face和Stability AI。他们也为另一家名为Scale AI的初创公司设立个别测试平台,后者以透过人工通过标记数据来帮助训练AI模型而闻名。

Scale AI的首席执行官亚历山大说:“随着这些基础模型变得越来越普遍,我们尽一切努力确保它们的安全性。你不希望任何信息泄露给任何其他用户。”

他还担心,AI聊天机器人会给出“令人难以置信的糟糕医疗建议”,或其他可能造成严重伤害的错误信息。

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT