星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

生成对抗网络

根据一项研究,人工智能创造的假脸看起来比真人更值得信赖。基于合成的人脸非常有说服力,用在诈骗中可能非常有效,学者认为需要更严格的道德准则以及更多的法律框架,以在情况变得更糟之前加以管制。 人工智能(Artificial intelligence/AI)所创造出的“假”人脸,不但真实的让人们无法分辨,甚至还相信假脸其实是如假包换的真人脸孔。 随著由电脑生成的虚构人脸越来越有让人相信的说服力,甚至可以骗过受过训练的观察人员。更重要的还是,虚构人脸的工具可以很容易地在网上下载,然后用于网络诈骗及伪造社交媒体资料。 [nonvip_content_start] 研究兴趣涉及快速发展的数字技术领域及其对记忆、认知与行为的影响的英国兰卡斯特大学心理学讲师索菲.南丁格尔说,人工智能创造假脸的技术应该受到关注,因为这些合成脸对进行邪恶目的非常有效,例如报复性色情或欺诈。 被称为“生成对抗网络”(generative adversarial networks/GANs)的人工智能程序,可以通过让两个神经网络相互对抗,学习创造出与真实图像区分度越来越低的假图像。 由伊恩.古德费洛等人于2014年提出的生成对抗网络,是非监督式学习的一种方法,由一个生成网络与一个判别网络组成。生成网络从潜在空间中随机取样作为输入,其输出结果需要尽量模仿训练集中的真实样本;判别网络的输入则为真实样本或生成网络的输出,目的是将生成网络的输出从真实样本中尽可能分辨出来,而生成网络则要尽可能地欺骗判别网络。 生成网络及判别网络的相互对抗、不断调整参数,最终目的是使判别网络无法判断生成网络的输出结果是否真实。除了常用于生成以假乱真的图片,生成对抗网络方法还被用于生成影片、三维物体模型等。 根据《新科学人》报导,索菲和她在加州大学伯克利分校的同事哈尼.法里德要求在一个众包网站上招募的315名参与者,从400张真实人物的照片中分辨出400张假照片。每组照片由来自四个种族群体的100人组成,分别是:白人、黑人、东亚和南亚人。这一组的准确率为48.2%──略微差于巧合性选择。 至于第二组的219名参与者则接受了识别人工智能生成的面孔的训练。根据索菲,这一组的准确率为59%,但这种差异可以忽略不计。 白人的脸孔最难区分真假,也许是因为合成软件是在不成比例的更多白人脸上得到不断学习的训练。 合成人脸更像“普通”人的脸 研究人员还要求另外一组223名参与者对所选的相同脸孔的可信度进行评分,评分标准为1至7。索菲表示,他们对假脸的评价平均比真脸的可信度高8%──这是一个很小但却很重要的差异。 针对这情况,她认为,这可能是因为合成的脸孔看起来更像“普通”人的脸,而人们更有可能相信典型的脸。 从两个极端来看,被评为最不值得信任的四张脸是真的,而最值得信任的三张脸却是人工智能所合成。 因此,索菲强调,“我们需要更严格的道德准则以及更多的法律框架,因为无可避免地肯定会有一些人想利用(这些合成图像)来进行伤害他人的事,这令人担忧。” 她说,为了减少这些风险,开发者可以在他们的图像上添加水印,以标记它们是假的。 “在我看来,这已经很糟糕了。如果我们不采取一些措施来阻止它,它只会变得更糟。”
3年前