(八打灵再也29日讯)科技的先进,不仅过去的有图有真相不再适用,如今连视频里的人和讲话的声音都可能是伪造的,大马通讯及多媒体委员会(MCMC)促请小心提防,在收到任何的网络求助时,务必先求证后再采取行动。
大马通讯及多媒体委员会(MCMC)网络安全组主任哈密莫哈末接受《星洲日报》专访时表示,MCMC正在密切留意“深度伪造”(DeepFake)的技术是否成为诈骗集团的干案工具。
ADVERTISEMENT
接求助视频需先求证
他说,这个技术是使用人工智能制造假视频和假声音,例如可以用来伪造一个人去说一些话,就是说现在连视频中的人物都可以伪造。
“这种技术已经存在了,现在我们在密切关注,因为这个科技可以作为诈骗用途。”
有鉴于此,他提醒民众,如果收到求助的视频,需要先求证,确保有关视频是真实的才采取行动。
“如果是你的朋友家人在视频中要求助,那你应该去跟当事人先求证,不要马上相信。”
去年4月,新加坡一名男子在接听了陌生来电后照片全被骇走,不法之徒就以“Deepfake”来制造色情假视频,借此来敲诈男子给钱消灾。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT