(新加坡4日讯)社交媒体和网络平台若发布暴力或自残相关的不良内容,日后可能面对最多100万元( 新元,下同,约325万令吉)罚款。被令禁止用户浏览不良内容,却不遵守禁令的业者,可能面对每日最多2万元,总额不超过50万元的罚款。
《联合早报》报道,新加坡政府即将出台的新互联网行为准则和社交媒体内容监管准则,旨在通过立法打击网络有害内容,为本地用户打造更安全的网络空间,尤其是保护未成年用户。
ADVERTISEMENT
通讯及新闻部长兼内政部第二部长杨莉明昨日在国会为网络安全(杂项修订)法案提出一读,拟议把新准则纳入广播法令以及电子交易法令,以加强对网络通信服务业者的监管。
国会将在下个月对这项法案进行二读。
一旦法案通过,像脸书和Instagram这类用户较多、影响力较大的社媒业者将受监管,必须制定程序或采取措施,以降低本地用户接触有害内容的风险,尤其是18岁以下的青少年和儿童。
18岁以下用户较多的社媒平台也须采取额外措施,例如制定一套社群守则,或为家长提供可过滤内容的工具。
根据通讯及新闻部文告,这些有害内容包括涉及自杀或自残、暴力、恐怖主义、儿童性剥削、对公共卫生构成威胁,以及破坏种族与宗教和谐的内容。
资讯通信媒体发展局日后也有权指示社媒业者禁止本地用户浏览不良内容,或与发布不良内容的账号交流。若社媒业者违规,资媒局也可指示互联网服务供应商禁止本地用户浏览违规网站。
接获指示的社媒业者,可向通讯及新闻部长提出上诉,但资媒局不能针对私人通信发出这类指示。
杨莉明今年3月在国会拨款委员会辩论通讯及新闻部新财年开支预算时,强调必须为青少年和儿童打造安全和健康的网络空间。通讯及新闻部随后在7月展开公众咨询,向600名家长、青少年、学者、社区和业界组织代表,就新准则征询意见。
通讯及新闻部提醒,虽然一些社媒业者已着手处理有害内容,但这些内容无处不在,情况仍令人担忧。由官方和各界代表组成的阳光联盟今年1月对1000多名新加坡人展开调查,发现约半数曾在网上接触有害内容,不少是青少年。
政府计划通过新准则改善用户的举报流程,向社媒业者问责。若有用户举报不良内容,业者须及时采取行动,并每年向资媒局提呈问责报告。社媒业者也可能须接受核查,以确定是否合规。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT