(新加坡4日訊)社交媒體和網絡平臺若發佈暴力或自殘相關的不良內容,日後可能面對最多100萬元( 新元,下同,約325萬令吉)罰款。被令禁止用戶瀏覽不良內容,卻不遵守禁令的業者,可能面對每日最多2萬元,總額不超過50萬元的罰款。
《聯合早報》報道,新加坡政府即將出臺的新互聯網行為準則和社交媒體內容監管準則,旨在通過立法打擊網絡有害內容,為本地用戶打造更安全的網絡空間,尤其是保護未成年用戶。
ADVERTISEMENT
通訊及新聞部長兼內政部第二部長楊莉明昨日在國會為網絡安全(雜項修訂)法案提出一讀,擬議把新準則納入廣播法令以及電子交易法令,以加強對網絡通信服務業者的監管。
國會將在下個月對這項法案進行二讀。
一旦法案通過,像臉書和Instagram這類用戶較多、影響力較大的社媒業者將受監管,必須制定程序或採取措施,以降低本地用戶接觸有害內容的風險,尤其是18歲以下的青少年和兒童。
18歲以下用戶較多的社媒平臺也須採取額外措施,例如制定一套社群守則,或為家長提供可過濾內容的工具。
根據通訊及新聞部文告,這些有害內容包括涉及自殺或自殘、暴力、恐怖主義、兒童性剝削、對公共衛生構成威脅,以及破壞種族與宗教和諧的內容。
資訊通信媒體發展局日後也有權指示社媒業者禁止本地用戶瀏覽不良內容,或與發佈不良內容的賬號交流。若社媒業者違規,資媒局也可指示互聯網服務供應商禁止本地用戶瀏覽違規網站。
接獲指示的社媒業者,可向通訊及新聞部長提出上訴,但資媒局不能針對私人通信發出這類指示。
楊莉明今年3月在國會撥款委員會辯論通訊及新聞部新財年開支預算時,強調必須為青少年和兒童打造安全和健康的網絡空間。通訊及新聞部隨後在7月展開公眾諮詢,向600名家長、青少年、學者、社區和業界組織代表,就新準則徵詢意見。
通訊及新聞部提醒,雖然一些社媒業者已著手處理有害內容,但這些內容無處不在,情況仍令人擔憂。由官方和各界代表組成的陽光聯盟今年1月對1000多名新加坡人展開調查,發現約半數曾在網上接觸有害內容,不少是青少年。
政府計劃通過新準則改善用戶的舉報流程,向社媒業者問責。若有用戶舉報不良內容,業者須及時採取行動,並每年向資媒局提呈問責報告。社媒業者也可能須接受核查,以確定是否合規。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT