(華盛頓7日綜合電)美媒披露,人工智能(AI)聊天機械人ChatGPT被指創作假醜聞,其中一宗個案是指控一名美國教授性騷擾學生,但整個故事根本子虛烏有。事件引起人們對聊天機械人生成錯誤訊息並廣為傳播的擔憂。
上週一個晚上,喬治.華盛頓大學法學教授特利收到一封令他不安的電郵,內容是加州一位律師同行在做研究時,要求ChatGPT生成一份曾性騷擾他人的法律學者名單,特利竟榜上有名。
ADVERTISEMENT
ChatGPT說,特利在阿拉斯加的一次班級旅行中,說了些性暗示語言,並試圖觸摸一個學生。ChatGPT並引用《華盛頓郵報》2018年3月的一篇文章作為訊息來源。但問題是:根本沒有這樣的文章存在,也從來沒有去過阿拉斯加班級旅行。
特利說,他從未被指控騷擾過學生。
近期面世由OpenAI公司研發的AI聊天機械人以其編寫電腦程式、創作詩歌和進行類似人類對話的能力,在全球爆紅。
但是,這些語言模型也可以大肆歪曲關鍵事實,甚至捏造原始資料來支持其主張。隨著ChatGPT、微軟的Bing和Google的Bard等基本不受監管的AI軟件開始納入整個網絡,引起了人們對錯誤訊息傳播的擔憂。
南加州大學安納伯格分校教授克勞福德說:“由於這些系統的反應如此自信,令人相信它們無所不能,實在很難區分事實和虛假訊息。”
今天的AI聊天機械人的工作方式,是利用大量在線內容,通常是從維基百科和Reddit網站等來源蒐羅,對幾乎任何問題都能做出聽起來合理的回答。但是,僅僅因為它們善於預測哪些詞可能會出現在一起,並不意味著所產生的句子總是真實的。
普林斯頓大學電腦科學教授納拉亞南稱,ChatGPT是“胡說生成器”。雖然它們的回答往往聽起來很權威,但這些模型缺乏可靠的機制來驗證他們所說的事情。
事實上,讓聊天機器人產生錯誤訊息或仇恨言論是相對容易的。“打擊數碼仇恨中心”週三發表的一項研究發現,研究人員誘導Bard在100次中有78次產生錯誤或仇恨的訊息,主題包括大屠殺和氣候變化。
OpenAI發言人費利克斯在聲明中說:“當用戶註冊使用ChatGPT,我們努力做到儘可能透明,它可能不會總是產生準確的答案。提高事實準確性是我們的一個重要焦點,我們正在取得進展。”主要的聊天機械人都有免責聲明,如Bard在每個查詢下面的細字訊息:“Bard可能會顯示不準確或令人反感的訊息,不代表谷歌的觀點。”
在澳洲,赫本郡首長鬍德被ChatGPT誤列為2000年代初期澳洲儲備銀行子公司一宗外國賄賂醜聞的犯案者,胡德已揚言,若OpenAI不更正ChatGPT提供有關他因行賄而入獄的不實資訊,將對OpenAI提出控告。這有可能成為首宗針對這種文字生成服務提出的誹謗訴訟。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT