星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

即时国际

|
发布: 1:40pm 05/06/2024

OpenAI

AI公司

缺乏透明度

保护吹哨人

OpenAI

AI公司

缺乏透明度

保护吹哨人

OpenAI员工警告 AI公司缺乏透明度 呼吁保护吹哨人

OpenAI现员工匿名警告AI公司缺乏透明度   呼吁保护吹哨人
ChatGPT制造商OpenAI公司的一群现前任员工呼吁该公司和其他人工智能公司保护举报人工智能技术安全风险的员工。(美联社照片)

(旧金山5日法新电)美国公司在职和前员工等周二发布公开信,警告世界领先的商业公司竞相开发人工智能产品存在风险,称该行业缺乏必要的透明度和问责制,无法应对该技术带来的潜在风险,并可能对吹哨人打击报复。

这封信提出了对人工智能安全风险的严重担忧,包括进一步加剧现有的不平等、助长操纵和虚假信息的传播,以及自主人工智能系统的失控可能导致人类灭绝等。

ADVERTISEMENT

包括谷歌DeepMind的一名员工在内的16名签署者警告称,人工智能公司“有强大的经济动机驱动它们继续推进人工智能研发来逃避有效监管”,而公司自己内部的管理无法有效改变这一现状。同时这些公司却对保护措施和风险水准的资讯讳莫如深。

信中写道:“人工智能公司掌握着大量非公开信息,包括其系统的能力和局限性、其保护措施的充分性,以及不同类型伤害的风险水平”,“然而,这些公司目前只需遵从很低的义务责任与政府分享部分信息,而与民间社会则没有任何义务。我们认为,不能指望他们都会自愿分享这些信息。”

信中还补充道,这一现实意味着,只有公司内部的员工才能向公众通报情况,签署者呼吁制定更广泛的吹哨人法律来保护他们。

信中写道,广泛的保密协议阻止了他们表达他们的担忧。

据《纽约时报》报道,7名OpenAI前员工、4名现任匿名员工签署了这封信,匿名是因为担心遭到公司的报复。

经常被称为“人工智能教父”的约书亚·本吉奥、杰弗里·辛顿和斯图尔特·罗素也签署了这封信,他们批评这些公司对人工智能的危险准备不足。

OpenAI在一份声明中反驳了上述批评。声明称,“我们为我们提供最强大、最安全的人工智能系统的记录感到自豪,并相信我们应对风险的科学方法”,“我们同意,鉴于这项技术的重要性,严谨的辩论至关重要,我们将继续与世界各地的政府、民间社会和其他社区接触。”

OpenAI还表示,该公司有“让员工表达担忧的渠道,包括一条匿名的诚信热线和一个由董事会成员和高管包括首席执行员阿尔特曼领导的新成立的安全与保障委员会。”

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT