(首尔29日综合电)韩国最近饱受人工智能(AI)深伪色情影像大量散播的问题困扰。当地不少人利用AI深伪技术,将上传社交网的女性照片,改造变成色情照片及影片散播,受害者包括中学生、大学生、教师、女兵等,当中有3成为未成年人。韩国教师工会指,“受害学校”已超过200间,令人震惊。
深伪淫秽影像泛滥引发民众恐慌,总统尹锡悦大表震怒,下令彻查及采取针对性的措施打击罪行。
ADVERTISEMENT
最近Telegram被发现存在大量疑似分享淫秽影像的群聊频道,这些频道出现的淫秽影像以AI深伪技术制成。每个频道平均有数千人参与,多则十万人以上。其中一个热门Telegram频道吸引到约22万会员,主要是青少年会员,他们会到Instagram等社交媒体平台去截取受害者的照片,然后用这些照片作为制作深伪色情照的材料,制成便与众人分享。
因应事态严重,总统尹锡悦呼吁彻底调查网络性犯罪,并下令打击这种越演越烈的罪行,以保障女性免在不知情下成为受害者。尹锡悦周二在内阁会议上还谈到了社交媒体上性犯罪问题严重,但未有点名Telegram。
当局表示计划要求社交平台更积极协助删除和封锁露骨的深伪色情内容。韩国通讯标准委员会(KCSC)表示,除了Telegram,也将寻求YouTube、X平台,以及Meta公司旗下的Facebook和Instagram等社交平台配合。警察厅则表示,将展开为期7个月行动,加强打击网络性犯罪。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT