星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国内

|

全国综合

|
发布: 7:44pm 20/12/2024

MCMC

互联网

社媒服务供应商

社媒行为准则

MCMC

互联网

社媒服务供应商

社媒行为准则

互联网和社媒服务供应商行为准则|MCMC:涵盖风险措施执行 社媒每半年 须呈报告

(赛城20日讯)大马通讯及多媒体委员会()今日发布信息服务供应商和社交媒体服务供应商行为准则(最佳实践),供应商受规定每半年需要提交在线安全报告,以及发布年度公开报告,以保障更安全的在线环境。

拥有800万名用户的社交媒体供应商,明年开始受规定必须申请执照,供应商在新出炉的准则下,被要求遵守更严格的责任要求,尤其是保护儿童和易受在线危害影响的用户方面。

ADVERTISEMENT

供应商受规定必须根据《1998年通讯及多媒体法令》(CMA 1998)以及相关大马法律下,承担更多的责任。

须保存有害内容移除记录

在问责机制下,服务供应商需保存有害内容的移除记录,包括移除过程及其原因。这些记录需按照通讯法及其他相关法律的规定保存一定时间。

供应商还应定期审查行为守则、平台社区准则和通讯法及其他在线安全相关法律的合规情况,包括进行“安全设计”评估,以评估在线安全在平台设计和运营中的整合情况,以及对残障用户可访问性、儿童用户安全功能和措施的检查。

至于半年的安全报告,则须涵盖风险评估结果、措施改进及执行情况。

须详细说明有害内容处理

年度报告则须详细说明有害内容的处理及执法行动,尤其是儿童用户的安全措施, 对内容版主的培训及支持,包括防范儿童诱拐及处理与儿童相关内容的培训。

“用户报告、标记及申诉的管理情况,数据请求的处理,以及其他旨在增强在线安全的改进措施都须在年报交待。”

服务供应商还需确保所有报告中的数据已获得适当的用户同意,或已进行匿名化和汇总处理,以确保数据隐私符合2010年个人资料保护法要求。

在风险评估和缓解方案方面,守则规定供应商需主动识别和缓解在线风险。

应采取的行动包括,定期评估平台系统性风险,包括用户人口统计、用户遇到有害内容和有害行为的可能性、儿童用户遇到有害内容、不适合其年龄的内容和潜在有害互动的可能性。

“可能导致这些风险的平台功能、 网络行为和威胁的新趋势,包括新形式的有害内容、在国家灾难和危机等风险加剧时使用的平台。”

缓解方案须交风险评估团队

缓解方案是必须确保风险评估由熟练且合格的风险评估团队进行,同时定期审查和更新风险评估方法,以反映用户群、平台社区准则和不断发展的在线环境的变化。

准则也规定必须建立内部保障功能,监控和确保风险预测、检测和缓解措施的有效性,并定期向平台稽查委员会或服务供应商内的管理机构报告。

通讯及多媒体委员会在声明中表示会为准则的采用提供指导,以确保其在维护安全可靠的在线环境方面的有效性。

准则也将适时进行审查,以确保其在应对新出现的挑战时仍然具有相关性和有效性。

准则详情,可浏览以下链接:https://www.mcmc.gov.my/skmmgovmy/media/General/Resources/MCMC_Code-of-Conduct-Best-Practice-for-Service-Providers.pdf

未经同意分享 属有害内容

大马通讯及多媒体委员会(MCMC)新出炉的准则下,在社交媒体上未经同意分享私密内容,也被视为有害内容。

MCMC公布的互联网信息服务供应商和社交媒体服务供应商行为准则(最佳实践)中,阐明了网上的9大有害内容,要求社交媒体服务供应商在应对这些有害内容时,必须采用最佳实践。

9大有害内容,分别是:

(i)儿童性虐待材料。

(ii)未经同意分享私密内容。

(iii)用于尝试或实施在线金融诈骗的内容,如网络钓鱼、恋爱诈骗、投资诈骗和其他欺诈性金融行为。

(iv)用于霸凌的内容。

(v)可能煽动暴力、极端主义和或恐怖主义的内容。

(vi)可能诱使儿童对自己造成身体和或心理伤害的内容。

(vii)煽动仇恨言论的内容。

(viii)与销售非法药物有关的内容。

(ix)操纵媒体,例如深度伪造和或经过篡改的图像,可能会对个人或社会造成伤害的内容。

要求设本地内容审核团队

为了让用户能安全使用平台,同时避免接触有害内容,该准则要求社交媒体服务供应商在我国设立了解大马本土文化、背景和敏感性的本地内容审核团队,并为他们提供培训和支持。

此举也是为了在常规紧急的情况下提供迅速有效的回应。

准则也阐明,供应商要建立明确且强有力的系统、机制和程序,以便及时识别、评估和移除有害内容,还要定期审查和更新上述系统、机制和程序,以在不断变化的网路环境中保持有效性。

速通报有害内容确保24小时内移除

在识别儿童性虐待材料的有害内容后,立即向相关执法机构(包括委员会)报告,确保在报告后24小时内移除该内容,或根据执法机构的指示处理相关有害内容。

新准则要求供应商落实政策,应对创建或传播违大马法律的有害内容的用户,包括:

警告、训斥、限制、暂停或终止符合以下条件的用户账户

a.传播有害内容;

b.违反年龄限制;

c.屡次违反平台的社区指导原则和法律

d.用于非法目的或活动。

准则指出,如果用户继续冥顽不灵,要阻止其创建新账户,以防止重复违规。同时要及时有效地回应执法机构(包括委员会)提出的删除有害内容的要求,包括遵守规定的时间。

也要积极协助进行任何与有害内容有关的调查,并根据相关法律要求保存的证据或数据。

加强年龄验证 保护儿童

为了保护儿童用户的安全,新准则规定服务供应商加强年龄验证,以及为家长提供控制工具。

准则表明,服务供应商需实施适当、有效的年龄验证或年龄确认措施,确保儿童用户不会访问有害内容或不适合其年龄的内容。

这些措施也应尊重儿童隐私,并基于行业最佳实践,防止儿童用户接触潜在危险内容,因为仅依赖自我声明年龄的方法被认为不充分,容易被绕过。

对于涉及儿童性虐待材料(CSAM)的报告,供应商需在收到用户报告或标记后24小时内作出响应,并在确认有害内容后及时采取措施删除。

确保标记有害内容时匿名性

在隐私保护方面,供应商需确保用户在报告或标记有害内容时的匿名性与保密性,尊重用户隐私,同时在必要时向执法机关提供相关证据。

准则也阐明,供应商应为家长和监护人提供工具,帮助他们监控和管理儿童用户的在线活动,包括限制屏幕时间和禁止访问不适当内容及有害互动的选项。

同时,平台需为儿童用户提供保护工具,帮助他们自我保护,避免接触有害内容和潜在危险的互动。

须及时调整应对新兴风险

供应商还需定期进行稽查和评估,以确保儿童安全措施的有效性,及时调整应对新兴风险和形式多样的在线危害。

此外,供应商也受促为用户提供更多的工具和设置,帮助用户主动防范在线危害,并在使用平台时做出明智决策。

供应商也应建立清晰透明的用户报告、标记和投诉流程,确保用户在报告有害内容时收到确认,并得以跟踪报告的进展,另外也需对涉及有害内容或有害行为的私人聊天,提供透明的报告和投诉流程。

此外,供应商应明确限制个人资料在定向广告中的使用,并告知用户如何选择退出数据收集。

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT