(北京3日綜合電)中國官媒發文警示,“AI換臉”詐騙在中國出現涉政苗頭,有不法分子利用人工智能“深度偽造”冒充領導幹部行騙。
隸屬新華社的 《瞭望》新聞週刊星期天報道,中國北方某地警方近日發佈一起利用“AI換臉”的詐騙案件,而該案不僅是一起新型網絡詐騙,更是一起涉政詐騙案件。
ADVERTISEMENT
報道稱,詐騙分子在微信視頻聊天中“換臉”成受害人認識的一名領導幹部,並提出其友人有一筆工程保證金需要借用受害人公司的對公賬戶走賬。
在視頻畫面中,騙子“換臉”後面部表情自然,聲音逼真,受害人便放鬆了警惕,僅10多分鐘交流,受害人就轉帳人民幣數百萬元,轉賬後打電話確認,才知道被騙。
報道指另一起案例,華北某地一名地方幹部近日也發現有人冒用其名義,與他的親友大範圍添加微信好友,並還給他們打了視頻電話,通話僅幾秒鐘,但朋友們感覺聲音、畫面都有點像。
國網信息通信產業集團安全科研專家趙明明表示:“只需提取最少10個字、最多32個字,就可以合成其聲音。”
由於工作原因,一些領導幹部的面部、聲音等生物特徵信息更易被獲取,被人工智能學習利用後造成的潛在危害性也更大。
奇安信安全專家裴智勇說,目前專業級別的人工智能“深度偽造”仍需通過較強的硬件在實驗室環境實現。這意味著,近期“AI換臉”詐騙形成系統性風險的可能性不大,但仍需未雨綢繆、預防打擊。
《天津日報》週一的報導引述天津科技大學人工智能學院副院長張賢坤稱,AI換臉擬聲”並非新技術,但隨著AI技術的不斷發展和完善,特別是電腦算力的提升,現在的“換臉”效果更加逼真,在電影、電視、廣告和遊戲領域得到了廣泛的應用。
報道指出,中國在2020年和2021年分別頒佈的《民法典》”、《個人信息保護法》等以及相關的修訂版本,對生物識別資訊作出規定。但天津師範大學法學院焦豔玲教授認為,即便有這些法規,利用AI換臉擬聲違法的情況仍屢屢發生,反映出核心問題並不在立法層面,而在於法律的執行層面以及公民的意識層面,必須加大對違法行為的預防和監管。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT