(八打靈再也29日訊)科技的先進,不僅過去的有圖有真相不再適用,如今連視頻裡的人和講話的聲音都可能是偽造的,大馬通訊及多媒體委員會(MCMC)促請小心提防,在收到任何的網絡求助時,務必先求證後再採取行動。
大馬通訊及多媒體委員會(MCMC)網絡安全組主任哈密莫哈末接受《星洲日報》專訪時表示,MCMC正在密切留意“深度偽造”(DeepFake)的技術是否成為詐騙集團的幹案工具。
ADVERTISEMENT
接求助視頻需先求證
他說,這個技術是使用人工智能製造假視頻和假聲音,例如可以用來偽造一個人去說一些話,就是說現在連視頻中的人物都可以偽造。
“這種技術已經存在了,現在我們在密切關注,因為這個科技可以作為詐騙用途。”
有鑑於此,他提醒民眾,如果收到求助的視頻,需要先求證,確保有關視頻是真實的才採取行動。
“如果是你的朋友家人在視頻中要求助,那你應該去跟當事人先求證,不要馬上相信。”
去年4月,新加坡一名男子在接聽了陌生來電後照片全被駭走,不法之徒就以“Deepfake”來製造色情假視頻,藉此來敲詐男子給錢消災。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT