星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

即时国际

|
发布: 3:21pm 07/04/2023

人工智能

性骚扰

ChatGPT

聊天机械人

人工智能

性骚扰

ChatGPT

聊天机械人

ChatGPT“创作”假性骚扰丑闻 专家斥“胡说生成器”

ChatGPT「创作」假性骚扰丑闻 专家斥“胡说生成器”
塞浦路斯首都尼科西亚一所中学的学生,创造出一个ChatGPT控制的机械人。(互联网照片)

(华盛顿7日综合电)美媒披露,(AI)被指创作假丑闻,其中一宗个案是指控一名美国教授学生,但整个故事根本子虚乌有。事件引起人们对聊天机械人生成错误讯息并广为传播的担忧。

上周一个晚上,乔治.华盛顿大学法学教授特利收到一封令他不安的电邮,内容是加州一位律师同行在做研究时,要求ChatGPT生成一份曾性骚扰他人的法律学者名单,特利竟榜上有名。

ADVERTISEMENT

ChatGPT说,特利在阿拉斯加的一次班级旅行中,说了些性暗示语言,并试图触摸一个学生。ChatGPT并引用《华盛顿邮报》2018年3月的一篇文章作为讯息来源。但问题是:根本没有这样的文章存在,也从来没有去过阿拉斯加班级旅行。

特利说,他从未被指控骚扰过学生。

近期面世由OpenAI公司研发的AI聊天机械人以其编写电脑程式、创作诗歌和进行类似人类对话的能力,在全球爆红。

但是,这些语言模型也可以大肆歪曲关键事实,甚至捏造原始资料来支持其主张。随着ChatGPT、微软的Bing和Google的Bard等基本不受监管的AI软件开始纳入整个网络,引起了人们对错误讯息传播的担忧。

南加州大学安纳伯格分校教授克劳福德说:“由于这些系统的反应如此自信,令人相信它们无所不能,实在很难区分事实和虚假讯息。”

今天的AI聊天机械人的工作方式,是利用大量在线内容,通常是从维基百科和Reddit网站等来源搜罗,对几乎任何问题都能做出听起来合理的回答。但是,仅仅因为它们善于预测哪些词可能会出现在一起,并不意味着所产生的句子总是真实的。

普林斯顿大学电脑科学教授纳拉亚南称,ChatGPT是“胡说生成器”。虽然它们的回答往往听起来很权威,但这些模型缺乏可靠的机制来验证他们所说的事情。

事实上,让聊天机器人产生错误讯息或仇恨言论是相对容易的。“打击数码仇恨中心”周三发表的一项研究发现,研究人员诱导Bard在100次中有78次产生错误或仇恨的讯息,主题包括大屠杀和气候变化。

OpenAI发言人费利克斯在声明中说:“当用户注册使用ChatGPT,我们努力做到尽可能透明,它可能不会总是产生准确的答案。提高事实准确性是我们的一个重要焦点,我们正在取得进展。”主要的聊天机械人都有免责声明,如Bard在每个查询下面的细字讯息:“Bard可能会显示不准确或令人反感的讯息,不代表谷歌的观点。”

在澳洲,赫本郡首长胡德被ChatGPT误列为2000年代初期澳洲储备银行子公司一宗外国贿赂丑闻的犯案者,胡德已扬言,若OpenAI不更正ChatGPT提供有关他因行贿而入狱的不实资讯,将对OpenAI提出控告。这有可能成为首宗针对这种文字生成服务提出的诽谤诉讼。

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT