星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

即时国际

|
发布: 3:21pm 07/04/2023

人工智能

性骚扰

ChatGPT

聊天机械人

人工智能

性骚扰

ChatGPT

聊天机械人

ChatGPT“創作”假性騷擾醜聞 專家斥“胡說生成器”

ChatGPT「创作」假性骚扰丑闻 专家斥“胡说生成器”
塞浦路斯首都尼科西亞一所中學的學生,創造出一個ChatGPT控制的機械人。(互聯網照片)

(華盛頓7日綜合電)美媒披露,(AI)聊天機械人被指創作假醜聞,其中一宗個案是指控一名美國教授性騷擾學生,但整個故事根本子虛烏有。事件引起人們對聊天機械人生成錯誤訊息並廣為傳播的擔憂。

上週一個晚上,喬治.華盛頓大學法學教授特利收到一封令他不安的電郵,內容是加州一位律師同行在做研究時,要求ChatGPT生成一份曾性騷擾他人的法律學者名單,特利竟榜上有名。

ADVERTISEMENT

ChatGPT說,特利在阿拉斯加的一次班級旅行中,說了些性暗示語言,並試圖觸摸一個學生。ChatGPT並引用《華盛頓郵報》2018年3月的一篇文章作為訊息來源。但問題是:根本沒有這樣的文章存在,也從來沒有去過阿拉斯加班級旅行。

特利說,他從未被指控騷擾過學生。

近期面世由OpenAI公司研發的AI聊天機械人以其編寫電腦程式、創作詩歌和進行類似人類對話的能力,在全球爆紅。

但是,這些語言模型也可以大肆歪曲關鍵事實,甚至捏造原始資料來支持其主張。隨著ChatGPT、微軟的Bing和Google的Bard等基本不受監管的AI軟件開始納入整個網絡,引起了人們對錯誤訊息傳播的擔憂。

南加州大學安納伯格分校教授克勞福德說:“由於這些系統的反應如此自信,令人相信它們無所不能,實在很難區分事實和虛假訊息。”

今天的AI聊天機械人的工作方式,是利用大量在線內容,通常是從維基百科和Reddit網站等來源蒐羅,對幾乎任何問題都能做出聽起來合理的回答。但是,僅僅因為它們善於預測哪些詞可能會出現在一起,並不意味著所產生的句子總是真實的。

普林斯頓大學電腦科學教授納拉亞南稱,ChatGPT是“胡說生成器”。雖然它們的回答往往聽起來很權威,但這些模型缺乏可靠的機制來驗證他們所說的事情。

事實上,讓聊天機器人產生錯誤訊息或仇恨言論是相對容易的。“打擊數碼仇恨中心”週三發表的一項研究發現,研究人員誘導Bard在100次中有78次產生錯誤或仇恨的訊息,主題包括大屠殺和氣候變化。

OpenAI發言人費利克斯在聲明中說:“當用戶註冊使用ChatGPT,我們努力做到儘可能透明,它可能不會總是產生準確的答案。提高事實準確性是我們的一個重要焦點,我們正在取得進展。”主要的聊天機械人都有免責聲明,如Bard在每個查詢下面的細字訊息:“Bard可能會顯示不準確或令人反感的訊息,不代表谷歌的觀點。”

在澳洲,赫本郡首長鬍德被ChatGPT誤列為2000年代初期澳洲儲備銀行子公司一宗外國賄賂醜聞的犯案者,胡德已揚言,若OpenAI不更正ChatGPT提供有關他因行賄而入獄的不實資訊,將對OpenAI提出控告。這有可能成為首宗針對這種文字生成服務提出的誹謗訴訟。

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT