根據一項研究,人工智能創造的假臉看起來比真人更值得信賴。基於合成的人臉非常有說服力,用在詐騙中可能非常有效,學者認為需要更嚴格的道德準則以及更多的法律框架,以在情況變得更糟之前加以管制。
人工智能(Artificial intelligence/AI)所創造出的“假”人臉,不但真實的讓人們無法分辨,甚至還相信假臉其實是如假包換的真人臉孔。
隨著由電腦生成的虛構人臉越來越有讓人相信的說服力,甚至可以騙過受過訓練的觀察人員。更重要的還是,虛構人臉的工具可以很容易地在網上下載,然後用於網絡詐騙及偽造社交媒體資料。
普通会员 | VIP | VVIP | |
---|---|---|---|
星洲网平台内容 | |||
星洲公开活动 | |||
礼品/优惠 | |||
会员文 | |||
VIP文 | |||
特邀活动/特级优惠 | |||
电子报(全国11份地方版) | |||
报纸 | |||
研究興趣涉及快速發展的數字技術領域及其對記憶、認知與行為的影響的英國蘭卡斯特大學心理學講師索菲.南丁格爾說,人工智能創造假臉的技術應該受到關注,因為這些合成臉對進行邪惡目的非常有效,例如報復性色情或欺詐。
被稱為“生成對抗網絡”(generative adversarial networks/GANs)的人工智能程序,可以通過讓兩個神經網絡相互對抗,學習創造出與真實圖像區分度越來越低的假圖像。
由伊恩.古德費洛等人於2014年提出的生成對抗網絡,是非監督式學習的一種方法,由一個生成網絡與一個判別網絡組成。生成網絡從潛在空間中隨機取樣作為輸入,其輸出結果需要儘量模仿訓練集中的真實樣本;判別網絡的輸入則為真實樣本或生成網絡的輸出,目的是將生成網絡的輸出從真實樣本中儘可能分辨出來,而生成網絡則要儘可能地欺騙判別網絡。
生成網絡及判別網絡的相互對抗、不斷調整參數,最終目的是使判別網絡無法判斷生成網絡的輸出結果是否真實。除了常用於生成以假亂真的圖片,生成對抗網絡方法還被用於生成影片、三維物體模型等。
根據《新科學人》報導,索菲和她在加州大學伯克利分校的同事哈尼.法裡德要求在一個眾包網站上招募的315名參與者,從400張真實人物的照片中分辨出400張假照片。每組照片由來自四個種族群體的100人組成,分別是:白人、黑人、東亞和南亞人。這一組的準確率為48.2%──略微差於巧合性選擇。
至於第二組的219名參與者則接受了識別人工智能生成的面孔的訓練。根據索菲,這一組的準確率為59%,但這種差異可以忽略不計。
白人的臉孔最難區分真假,也許是因為合成軟件是在不成比例的更多白人臉上得到不斷學習的訓練。
合成人臉更像“普通”人的臉
研究人員還要求另外一組223名參與者對所選的相同臉孔的可信度進行評分,評分標準為1至7。索菲表示,他們對假臉的評價平均比真臉的可信度高8%──這是一個很小但卻很重要的差異。
針對這情況,她認為,這可能是因為合成的臉孔看起來更像“普通”人的臉,而人們更有可能相信典型的臉。
從兩個極端來看,被評為最不值得信任的四張臉是真的,而最值得信任的三張臉卻是人工智能所合成。
因此,索菲強調,“我們需要更嚴格的道德準則以及更多的法律框架,因為無可避免地肯定會有一些人想利用(這些合成圖像)來進行傷害他人的事,這令人擔憂。”
她說,為了減少這些風險,開發者可以在他們的圖像上添加水印,以標記它們是假的。
“在我看來,這已經很糟糕了。如果我們不採取一些措施來阻止它,它只會變得更糟。”