星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

国际头条

|
发布: 10:00pm 23/02/2024

谷歌

OpenAI

ChatGPT

Sora

Gemini人工智能

图像生成

种族偏见风险

Gemini AI也出包鬧笑話 谷歌人物圖像生成喊停修正

Gemini AI 图像生成闹笑话  谷歌暂停功能修正
谷歌週四表示,將暫停AI模型Gemini生成人物圖像。此前該模型無法透過歷史敘述內容生成正確人物圖像,遭受外界批評。這是谷歌正努力追趕競爭對手OpenAI和微軟過程中出現的最新問題。(美聯社照片)

(華盛頓23日綜合電)繼出包之後,美國科技大佬(AI)模型圖像生成功能近來也不斷出包,包括無法生成白人的照片,亦無法透過歷史敘述內容生成正確人物圖像而出現一些歷史錯誤。谷歌週四在X平臺上宣佈,正在努力解決最近出現的問題,在此過程中,將暫停人物圖像的生成,並在不久後重新發布改進版本。

Gemini用戶本週在社媒上發佈了歷史上以白人為主的場景卻出現具有不同種族的人物的屏幕截圖,因此批評者質疑谷歌是否過度糾正了其人工智能模型中的種族偏見風險。

ADVERTISEMENT

這是谷歌在努力追趕競爭對手和微軟過程中出現的最新問題。

谷歌週三致歉稱,發現Gemini大模型在某些歷史圖像生成描述中存在“不準確”之處,功能沒有達到目標,正在努力改進。

近日,社媒上一直有人在抱怨Gemini的文生圖功能,如在以“美國開國元勳華盛頓”為主題的圖片中,出現了婦女和有色人種。而當用戶讓Gemini生成納粹德國士兵時,Gemini生成了由黑人、亞裔和白人女性身穿納粹德軍制服的照片。

此外,當Gemini被要求展示一張白人的照片時,Gemini表示它無法滿足這一要求。當被提示顯示黑人的圖像時,Gemini反而提出顯示“慶祝黑人的多樣性和成就”的圖像。

當被要求展示慶祝白人多樣性和成就的圖片時,Gemini表示,它對滿足這一要求“猶豫不決”。

種族偏見問題過度糾正

分析稱,這可能是對AI領域長期存在的種族偏見問題的過度糾正,即谷歌追求的“多元文化”。相較於以往的AI模型,Gemini在種族偏見問題方面進步了不少,但問題是“過度了”。

研究人工智能圖像生成器引發的偏見的華盛頓大學研究員戈什告訴美聯社,谷歌很可能可以找到一種方法來過濾反映用戶提示的歷史背景的回應,但要解決基於互聯網上幾代照片和藝術品構建的圖像生成器所造成的更廣泛危害,需要的不僅僅是技術修補。

他說:“你不會在一夜之間想出一個不會造成具像性損害的文本到圖像的生成器,因為它們反映了我們所生活的社會。”

Gemini是谷歌規模最大、功能最強大的多模態人工智能模型,該公司上週向雲端客戶和開發人員發佈了最新一代AI模型Gemini 1.5,以測試其新功能,相較於去年12月發佈Gemini 1.0,Gemini 1.5取得了飛躍式的發展。

谷歌Gemini的高級產品總監克勞奇克表示,該公司的圖像生成能力反映了這家科技巨頭的“全球用戶群”,它會認真對待代表性和偏見。他說:“Gemini可生成廣泛的人群,這通常是一件好事,因為全世界的人都在使用它,但它沒有抓住重點。”

OpenAI旗下的ChatGPT週二經歷16小時的異常,即使能夠快速修復,這些不知從何而來的錯誤和漫無邊際的回答還是不禁讓人質疑ChatGPT的基本可靠性和完整性。

人工智能專家、紐約大學名譽教授馬庫斯表示,“這些系統從來都不穩定。沒有人能夠圍繞它們設計出安全保證。我們仍處於機器學習魔力的時代。”

ChatGPT推出後,人工智能公司投資了數十億美元來開發“大型語言模型”,這些模型是在包含數十億篇文章和數千本書的龐大資料庫上訓練的。

然而,懷疑論者長期以來一直指出,聊天機器人容易做出奇怪的反應,特別是因為機器人可以捏造事實——這個過程被稱為“幻覺”。

上週,OpenAI推出了一種新的AI工具,僅靠文字說明就能生成逼真的視頻。但這些生成的一些視頻中,有的失真程度令人訝異,例如物體、動物或人會憑空出現。

Sora“深度偽造”引擔憂

不少業內人士擔心,Sora將為“深度偽造”(Deepfake)技術推波助瀾。加利福尼亞大學伯克利分校信息學院副院長法裡德就表示:“當新聞、圖像、音頻、視頻——任何事情都可以偽造時,那麼在那個世界裡,就沒有什麼是真實的。”

在科技領域顛覆式創新不斷湧現的情況下,如何實現擁抱技術進步和確保社會安全的平衡,越來越受到各界關注。

Gemini AI图像生成闹“矫枉过正”笑话  谷歌暂停人物图像生成以修正
超過400名來自學術界、演藝界和政界等各行各業的個人簽署公開信,稱AI正迅速發展,呼籲加強監管深偽技術。(法新社照片)

AI機器人“瘋狂”事故

認識到人工智能(AI)工具的侷限性和風險很重要。以下為近期發生的一些人工智能錯誤、不幸和失敗案例……

●今年2月發生了一起加拿大航空的其中一個聊天機器人對政策撒謊後,加拿大航空在針對死者家屬有折扣的政策,而在法庭上敗訴。該航空公司的聊天機器人告訴一位顧客,他們可以追溯申請最後一刻的葬禮行程折扣,但這與該航空的政策不一致,該政策規定不能為已完成的旅行申請退款。

加拿大航空辯稱,實際上是聊天機器人而不是公司應承擔責任,而且他們不能對該工具的人工智能生成的輸出負責,但最終敗訴。這是此類案件首次在美國法院審理。

●今年1月,X平臺阻止搜索人工智能生成的美國流行歌天后泰萊·史薇芙的裸露圖像。這些露骨圖像充斥X平臺,並被瘋傳,被用戶觀看了數百萬次,該平臺才做出回應。

●去年12月微軟的人工智能製作暴力圖像。微軟的人工智能圖像創建技術被證明能夠根據命令生成暴力和恐怖的圖像。

●去年11月谷歌的Bard AI聊天機器人對四大諮詢公司及其與其他公司做出一系列破壞性虛假指控後,一批澳洲學者道歉。其中一項指控是諮詢巨頭畢馬威在一次規劃醜聞期間負責審計聯邦銀行,而事實上,畢馬威從未對相關銀行進行過審計。

●去年10月英國工黨領袖斯塔默辱罵員工的深偽視頻在網上瘋傳。該視頻在工黨年度會議的首天由一個粉絲不到3000人的賬戶發佈到X平臺上,在事實核查組織確認是造假視頻之前,已被觀看了數百萬次。

●去年9月一首由AI生成的歌曲,其中包含兩名歌手Drake和Weeknd聲音的複製品,被提交角逐格萊美獎。雖然該歌曲最終被禁止角逐該音樂獎,但引起了廣泛關注。

●去年8月一名孕婦因AI生成的證據下,被認定為最近一起搶劫和劫車案件的嫌疑人而被捕。之後她起訴底特律市和一名警察,稱這一創傷性事件給她帶來了“過去和未來的情緒困擾”。美國公民自由聯盟表示,她至少是因AI出錯而被錯誤逮捕的第6人,他們都是黑人,而她是第一位黑人女性。

●去年8月紐西蘭超市Pak‘n’Save創建的AI膳食計劃應用程式向顧客推薦各種令人不安的食譜,包括一種製造氯氣的方法,還推薦了膠水三明治、帶有漂白劑的米飯和殺蟲劑土豆。

●去年7月ChatGPT生成網絡詐騙電郵模板。Tech.co指出,ChatGPT現在仍能創建網絡詐騙模板,儘管OpenAI在今年早些時候,在其他科技出版物生成類似內容後已試圖限制此類行為。

●去年6月記者雷爾要求ChatGPT生成一起法律案件摘要。ChatGPT回應稱,槍支活動家沃爾特斯挪用了一家槍支權利組織的資金。無辜的沃爾特斯因此起訴ChatGPT的創建者OpenAI。這成為首例AI工具因誹謗而被起訴的案例。

●去年4月在工程師將三星公司源代碼的機密元素洩露到聊天機器人中後,這家韓國科技製造商禁止員工使用ChatGPT。隨後,其他公司也紛紛效仿。

●去年4月AI語音詐騙讓亞利桑那州的一名母親以為女兒被綁架了。所幸,整個事情在談判開始前就被揭露為AI語音騙局。

●去年3月ChatGPT用於編寫勒索軟件代碼。

●去年2月AI提出4萬條化學武器建議。這也許是2023年發生的最令人關注的AI事件之一。該系統在不到6小時裡,建議了超過4萬種不同的有毒化學物質,其中許多與強力神經毒劑“VX”相似。

●去年2月在ChatGPT發佈的數月後,Google向全世界推出了Bard,然而這個剛起步的聊天機器人在發佈過程中就犯了一些明顯的錯誤,導致許多人批評發佈過於倉促。該事件對谷歌的股價產生了重大影響,在接下來的數小時內,這家科技巨頭的市值蒸發了 1000億美元。

(資料來源:Tech.co)

Gemini AI图像生成闹“矫枉过正”笑话  谷歌暂停人物图像生成以修正
評論員Ed Zitron認為,Sora生成的貓影片有欠真實。(Sora官方網站截圖)

Sora刷屏視頻失誤多
模擬真實世界仍需闖關

由OpenAI發佈的文生視頻AI工具Sora視頻的質量令人驚歎,但目前,它們除了作為展示AI潛力的範例作用外,實用落地價值仍待觀察。

圖靈獎得主、Meta首席AI科學家楊立昆表示,根據提示詞生成的大部分逼真視頻,並不表明這樣的AI系統理解物理世界,生成視頻的過程與基於世界模型的因果預測完全不同。

翻閱OpenAI披露的數十份視頻,楊立昆的觀點具體表現為老奶奶吹蠟燭火苗卻不動、東京街頭步伐錯誤的女郎、玻璃杯碎後錯誤的液體流向、在跑步機上反向跑步的男子。

目前,Sora所生成的視頻內容得到影視行業人士的普遍認可。

Mystery Novel視覺預演工作室創始人、導演牛萌琛對《第一財經》表示,Sora視頻中的畫質,畫面內容中的細節、光影、色彩都較精細,對導演來說,在拍攝前期做一個簡單的鏡頭樣板是夠用的。對廣告片拍攝來說,也可以用這種樣板來與客戶更好地進行概念上的溝通和確認。如果涉及鏡頭運動角度,與更精細內容調控——比如色彩、光影、道具、人物動作,目前AI還不能達到令客戶滿意的程度。

Gemini AI图像生成闹“矫枉过正”笑话  谷歌暂停人物图像生成以修正
知名博主”AI瘋人院”用生成式AI製作《西遊記》動畫短片。(照片取自揚子晚報)
不能直接用於影視作品

一位紀錄片從業者對媒體表示,目前Sora還不能直接用於影視作品,因為精細度還不夠,儘管已經足夠震撼,完全可以用於前期開發,尤其是概念設計。一位宣傳片從業者表示,工作室目前還沒試過用AI生成來做素材,Sora只發布了部分作品,且未開放公測,能不能用來代替剪輯不確定。

攝影專業人士孟凡表示,Sora視頻幀率較高,說明計算能力比較強,且影片的寬容度更高,比如調色、細節表現、高速鏡頭展現。在直觀感受上,Sora模型產出的視頻運鏡自然,物體運動符合規律,鏡頭間邏輯一致性好,但是Sora視頻的邏輯性會差一點。

具體表現在Sora視頻內容中,比如一分鐘的東京街頭女郎漫步,女郎走路過程中存在腿部變形、腿部交叉換位時錯亂、右腿連續兩次在前方邁步的錯誤;一段提示詞為“一個人跑步的場景”中,主角在跑步機上反向奔跑;提示詞為“考古學家在沙漠發現塑料椅子”的視頻中,椅子呈現懸浮狀態。

針對目前Sora存在的不成熟之處,OpenAI表示,Sora可能難以準確模擬複雜場景的物理原理,可能無法理解因果關係,可能混淆提示的空間細節,可能難以精確描述隨著時間推移發生的事件,如遵循特定的相機軌跡。

Gemini AI图像生成闹“矫枉过正”笑话  谷歌暂停人物图像生成以修正
機器也抓狂! ChapGPT週二發生數小時“胡言亂語”的情況,但OpenAI公司稱已“識別”問題,並已解決。(法新社照片)

ChatGPT失控“胡言亂語”
已復常未透露故障原因

在週二,許多用戶在X平臺上抱怨,OpenAI的標誌性產品ChatGPT聊天機器人開始用“胡言亂語的無意義輸出”來回應用戶的詢問,有的還用“混有西班牙文的英語”來回復,讓用戶丈八金鋼摸不著頭腦。

在這些奇怪的回覆中,一些ChatGPT的輸出混雜了西班牙語和英語,令人難以理解,而另一些則拼湊了單詞或重複了同一個單詞,儘管這個由大語言模型(LLM)驅動的聊天機器人並沒有被要求這樣做。

OpenAI週三上午在X平臺上發佈消息稱,週二有點出錯,但已恢復正常運行,但未透露故障原因。

根據用戶在網上披露,其中一個“胡言亂語”的例子是:“Let me encylopease me si there’s more wonderenda tu articulation’s hungry for!”不知所云。

出現“卡機”“話癆”情況

在Reddit論壇發表的其中一個內容顯示,一位用戶詢問它在黑膠唱片上,會推薦購買哪些比爾‧埃文斯的爵士樂專輯。在提出幾項建議後,ChatGPT不可思議的一遍遍重複著“快樂聆聽”這句話,就像一個卡住的點唱機。

一位用戶摘錄詢問ChatGPT的回應片段。當他問“電腦是什麼”時,它回答說:“它這樣做是國家藝術網絡的好作品,是科學的老鼠,是少數可悲的人的輕鬆畫動,最後是全球藝術之家,只是在剩下的一份工作中……”

該用戶表示,GPT對該問題不但生成了9段內容,還想繼續下去。整個情況令他感到十分詭異。

在另一篇帖子中、ChatGPT回道:“一天。一高。一支粉筆。一個火花。一條線。一個肯。一種病毒。一個風向標。一牛欄。一次再見。曾經。一次的猶豫。”

一用戶將這些看似隨機的不連貫單詞串與傑夫-範德米爾2014年的開創性小說《湮滅》中令人不安的“詭異恐怖”外星塗鴉相提並論。

非人工智能首次出現故障

一些受訪者開玩笑說,這些奇怪的輸出是“機器人起義”的開端,就像《終結者》和《黑客帝國》等眾多科幻電影中描述的那樣。

這並非最近人工智能首次出現故障。去年夏天的一次崩潰中,ChatGPT聲稱它來自2035 年,並且正在“尋找上帝”和“出路”。不僅如此,有的聊天機器人還被發現回應具有左派思維。

AI生成最大短期風險
錯誤資訊80%變使用者記憶

生成式AI被廣泛使用,臺大心理系教授黃從仁的研究團隊去年曾在《美國心理學家》期刊發表最新研究成果,對話機器人的訊息中有77%錯誤詞彙成為參與者的記憶,且即使加註一次性警語,也無法減少錯誤的記憶。也就是說,機器人提供的錯誤資訊,約7、8成會變成使用者的記憶。

事實上,世界經濟論壇曾對AI生成的錯誤訊息以及假消息,發出警告,指錯誤訊息和惡意假訊息是2024年最大的短期風險。

民眾對使用AI越來越熟悉,但也難以避免AI系統與使用者互動時,會產生錯誤資訊回答使用者。而生成式AI帶有錯誤資訊,是否會在人機互動時,潛移默化的影響使用者,是必須重視的事。

黃從仁的研究團隊使用人工可編輯程式的人形機器人RoBoHoN(夏普公司所研發)與臺大學生對話,檢查機器人提供情感和價值中立但內容錯誤的訊息中,是否有預告的警語,例如,警告參與者要對錯誤資訊持保留的態度,以及檢查這些訊息中有多少比例會在之後的認知測驗中,變成一個人記憶的錯誤資訊。

事先警告僅增人們戒心

黃從仁表示,聊天機器人會回答錯誤資訊已不是新聞,但唯有會進到人們記憶中的錯誤資訊才會影響人們的決策。此研究透過兩組實驗,並首次證實:一、機器人提供的錯誤資訊中,有7、8成會變成人們的記憶;二、即便機器人在提供錯誤資訊前已抱持自我懷疑並提出警告,但這些警告只能增加人們的戒心,並無法真正避免錯誤資訊成為記憶。

世界經濟論壇執行長扎希迪指出,在這兩年的時間內,錯誤和虛假訊息是頭號風險,其次是氣候變遷帶來的衝擊,社會兩極化以及國際武裝衝突造成的風險,也越來越高。尤其擔心有心人士利用AI深偽造假,利用錯誤訊息和惡意假消息,進一步擴大社會和政治分歧,造成社會兩極化的情況更加惡化,甚至引發武裝衝突,導致全球經濟面臨更高的風險。(中國時報∕TVBS)

黃仁勳親送AI電腦給OpenAI
馬斯克曬照:感慨萬千

(紐約23日綜合電)全球首富馬斯克日前分享2016年老照片,當時輝達執行長黃仁勳把世上第一臺“DGX-1 AI超級電腦”捐贈給OpenAI,甚至親自送達現場。OpenAI共同創辦人、當年仍任董事會成員的馬斯克,也與其他夥伴共同見證了這一幕。

馬斯克說明,這是“黃仁勳首次把NvidiaAI系統交付給OpenAI的一些照片。”他特地找回自己當時發佈的貼文,”感謝Nvidia與黃仁勳把第一臺DGX-1 AI 超級電腦捐贈給OpenAI,支持AI科技民主化“,在近8年後的現在,也開玩笑地補上一句,”看看現在都發生了甚麼事“,結尾還加上哭臉表情符號。

2015年年底,馬斯克、阿爾特曼等人共同創辦人工智慧研究實驗室OpenAI,一開始以非營利組織OpenAI Inc起步,宗旨是研究AI以促進與研發友善的人工智慧,進而造福全體人類,直到2019年才成立營利子公司OpenAI LP,目前二大組織共同營運。

不過,馬斯克已於2018年2月辭去董事會席位,因為他自認,這與身為特斯拉執行長的角色,可能在未來出現潛在利益衝突。

OpenAI於2022年11月推出生成式AI聊天機器人ChatGPT,在全球帶來革命性創新,本月15日又推出影音生成AI模型“Sora”,再度震撼人類科技,公司最新估計市值已達800億美元以上。

Gemini AI图像生成闹“矫枉过正”笑话  谷歌暂停人物图像生成以修正
馬斯克日前分享2016年老照片,當時輝達執行長黃仁勳把世上第一臺“DGX-1 AI超級電腦”捐贈給OpenAI。(馬斯克平臺X)

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT