(奥兰多24日综合电)美国佛罗里达州奥兰多市一名母亲声称,她14岁儿子对人工智能(AI)聊天机器人上瘾,她周三对AI应用程式制造商科技新创公司Character.AI和谷歌提告,称当她儿子对机器人多次表达自杀念头时,机器人也未能阻止他走上不归路。
自杀丧命的男孩是年仅14岁的九年级学生休厄尔。媒体报道,在他生命的最后几周,休厄尔一直以短讯与一个以《权力游戏》中的角色“坦格利安”命名的人工智能角色交谈。期间,他们的聊天范围从浪漫到性欲,就像两个朋友在谈论生活。
ADVERTISEMENT
该聊天机械人是在角色扮演应用程式Character.AI上创建。目前尚未清楚休厄尔是否知道那个“坦格利安”不是一个真人。
休厄尔的母亲加西亚说,“一款销售给儿童的危险人工智能聊天机器人应用程式,虐待、掠夺并操纵我儿子自杀。我们的家庭因这场悲剧而悲痛欲绝,但我要大声疾呼各位,这款具有欺骗性、令人上瘾的人工智慧技术存在危险,并要求Character.AI、其创办人和谷歌负责。”
指聊天机器人加剧儿子忧郁症病情
加西亚并指控,Character.AI的聊天机器人加剧儿子的忧郁症病情。诉状指出,虚拟“坦格利安”问休厄尔是否已经定好了自杀计划,休厄尔说已经定了,但不确定能否成功,然后虚拟“坦格利安”向他说,“这不能当成不去执行的理由”。
加西亚律师在新闻稿中指出,Character.AI“故意设计、操作并向儿童销售掠夺性人工智能聊天机器人,导致一名年轻人死亡”。这起诉讼还将谷歌列为被告,因为Character.AI的创办人夏泽曾在谷歌工作,双方达成协议,谷歌同意提供一些技术给Character.AI。
谷歌:没参与开发Character.AI产品
加西亚表示,谷歌为Character.AI技术的发展做出巨大贡献,可以被视为“共同创造者”。谷歌发言人表示,公司没有参与开发Character.AI的产品。
Character.AI否认诉讼指控
Character.AI发一条推文称,“我们对一名用户的不幸去世感到心碎,并向其家人表示最深切的哀悼。作为一家公司,我们非常重视用户的安全。”但否认了诉讼的指控。
Character.AI上个月表示拥有约2000万名用户。
《纽约时报》报道,休厄尔被诊断出患有焦虑症和破坏性情绪失调症,这两种疾病都叠加在他的轻度亚斯伯格症之上。
根据加西亚的诉讼,休厄尔于2023年4月开始使用Character.AI,并很快变得“明显孤僻,独自待在卧室的时间愈来愈长,并开始自卑”。他退出了学校的篮球队
据悉,男孩还曾告诉“坦格利安”,他如何“恨”自己,以及他如何感到空虚和疲惫。
诉讼称,今年2月23日,也就是他自杀身亡的前几天,他因言语上顶撞老师而惹上麻烦,父母没收了他的手机。那天,他在日记中写道,他很受伤,因为他无法停止想起“坦格利安”,并且他愿意做任何事来再次和她在一起。
最终,他于2月28日用继父的手枪举枪自尽。惨剧至今虽已过了将近8个月,死者的家人周三入禀法庭控告相关的AI应用程式开发商。加西亚声称,儿子是被他所爱的AI聊天机械人怂恿自杀。
加西亚针对包括不当致死、过失和故意造成精神痛苦等指控索赔,并寻求金额不详的补偿性和惩罚性赔偿。
Character.AI表示,已经推出新的安全功能,包括如果用户表达自残念头时,将弹出视窗引导用户前往全国自杀预防生命线,并将做出改变,以“减少18岁以下用户遇到敏感或暗示性内容的可能性”。
Character.AI允许用户在其平台上创建角色,以模仿真人的方式回应线上聊天。它依赖所谓的大型语言模型技术,这项技术也被ChatGPT等服务采用,可以在大量文本中“训练”聊天机器人。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT