(首爾29日綜合電)韓國最近飽受人工智能(AI)深偽色情影像大量散播的問題困擾。當地不少人利用AI深偽技術,將上傳社交網的女性照片,改造變成色情照片及影片散播,受害者包括中學生、大學生、教師、女兵等,當中有3成為未成年人。韓國教師工會指,“受害學校”已超過200間,令人震驚。
深偽淫穢影像氾濫引發民眾恐慌,總統尹錫悅大表震怒,下令徹查及採取針對性的措施打擊罪行。
ADVERTISEMENT
最近Telegram被發現存在大量疑似分享淫穢影像的群聊頻道,這些頻道出現的淫穢影像以AI深偽技術製成。每個頻道平均有數千人參與,多則十萬人以上。其中一個熱門Telegram頻道吸引到約22萬會員,主要是青少年會員,他們會到Instagram等社交媒體平臺去截取受害者的照片,然後用這些照片作為製作深偽色情照的材料,製成便與眾人分享。
因應事態嚴重,總統尹錫悅呼籲徹底調查網絡性犯罪,並下令打擊這種越演越烈的罪行,以保障女性免在不知情下成為受害者。尹錫悅週二在內閣會議上還談到了社交媒體上性犯罪問題嚴重,但未有點名Telegram。
當局表示計劃要求社交平臺更積極協助刪除和封鎖露骨的深偽色情內容。韓國通訊標準委員會(KCSC)表示,除了Telegram,也將尋求YouTube、X平臺,以及Meta公司旗下的Facebook和Instagram等社交平臺配合。警察廳則表示,將展開為期7個月行動,加強打擊網絡性犯罪。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT