在“明辨是非”这类关乎到道德判断的问题上,AI的局限性尤其突出。人类的道德观念、情感共鸣和文化理解,目前阶段仍然不是AI所能简单模仿和理解的。因此,在面对涉及道德和伦理层面的复杂问题需要判断时,AI系统无疑仍然需要人类的辅助和监督,以减少误判。
近年来脸书等社交媒体平台纷纷采用人工智能(AI)技术来过滤及审核内容,以防止色情诈骗及憎恨言论等不良信息的传播。但显而易见的是,这项技术在实际运用中却是碰了诸多问题。日前《星洲日报》的脸书,就因为刊登一则“男子投资共享冰箱被骗30万”的新闻而遭到账号封杀。这事件不禁让人们思考,究竟使用Al对需要进行道德审批的文字内容进行审核,其分析分辨标准能做到什么程度?
从另一角度来看,这一乌龙事件凸显了利用Al进行审核存在的局限。不可否认,AI的参与让平台在海量信息过滤上,可以更加高效。面对每分每秒数以亿计的信息涌入,如果完全依赖人力审核,不仅会耗费大量时间与资源,且难以做到实时监管。
但是,AI的“冰冷无脑”属性也带来了明显的缺陷。正如星洲脸书事件显示,眼下AI仍然缺乏人类在道德和伦理层次上的深度理解力,其判断标准往往以关键词或图像特征为主,有时会出现未能理解信息的完整上下文,更不要说隐藏在文字背后的劝戒用意。
星洲脸书上载的新闻本意是揭露诈骗骗局、提醒网民防范,AI却因片面理解将其误判为诈骗信息,这无疑暴露了AI在道德判断与语言理解上的不足。
在“明辨是非”这类关乎到道德判断的问题上,AI的局限性尤其突出。人类的道德观念、情感共鸣和文化理解,目前阶段仍然不是AI所能简单模仿和理解的。因此,在面对涉及道德和伦理层面的复杂问题需要判断时,AI系统无疑仍然需要人类的辅助和监督,以减少误判。
只不过许多网络平台在追求低营运成本,及过度信赖AI高效率的同时,选择放弃或减少人类监督。然而,在Al的“情感”及“道德”认知和分辨度,尚未能提升到人类层面时,因误封事件引发更多“乌龙”笑话,相信仍然会持续出现。
虽然Al目前存在道德判断,及复杂文字内容理解方面的缺陷,但考虑网络平台的海量信息,Al在信息筛选上所展现出了的高效优势,其监控角色仍然是不可取代的。只不过我们希望众多媒体平台在利用AI审核的同时,仍需引入人类的“监督”力量,形成“人机协作”的审核机制,才能避免账号错误封杀的乌龙事件。
ADVERTISEMENT
热门新闻
百格视频
你也可能感兴趣
ADVERTISEMENT