(旧金山10日法新电)美国OpenAI公司表示担忧,其人工智能(AI)模型的逼真语音功能可能导致用户与聊天机器人建立起社交关系,因此而牺牲了人际互动。
OpenAI引用了一些专业文章,指这些资料都显示,如果人们像与真人那样和AI聊天,这可能导致对AI的错误信任,而该公司今年5月所推出新版本大模型GPT-4o的优质声音可能加剧这种影响。
ADVERTISEMENT
OpenAI周四发布了一份有关其对ChatGPT-4o版本进行的安全审查报告。报告中说:“拟人化涉及将类人行为和特征赋予非人类实体,如AI模型。 ”
“GPT-4o的声音能力可能会增加这种风险,因为它方便了人们与该模型进行更像人类的互动”。
OpenAI表示有注意到测试人员与AI交谈时流露出彼此间共同拥有的关系,譬如大声哀叹那是他们在一起的最后一天。
它表示,这些情况看起来是和善的,但也必须进行研究,以了解他们在更长的时间内会如何发展。
OpenAI推测,与AI进行社交还可能令用户们在人际关系方面变得不那么娴熟或不太愿意。
报告中也指称:“与模型的长期互动可能会影响社会规范,”
“举个例子,我们的模型是毕恭毕敬的,允许用户随时打断和‘抢麦’。虽然这对于AI来说是意料之中的,但在人类互动中却是反规范的。”
另外,OpenAI指出,AI在交谈时记住细节和处理任务的能力也可能使人们过度依赖这项技术。
AI反抄袭检测平台Copyleaks联合创办人兼首席执行员雅敏表示:“OpenAI最近所提出对人们可能依赖ChatGPT语音模式的担忧已表明,许多人已经开始在问:是时候停下来考虑这项技术如何影响人际互动和关系了吗?”
他说,人工智能永远不应该取代实际的人际互动。
OpenAI表示,该公司将进一步测试其AI的语音功能如何让人们产生情感依恋。
负责测试ChatGPT-4o语音功能的团队也能够提示它重复虚假讯息并提出阴谋论。这引发了人们对AI模型可能会被要求令人信服地这样做的担忧。
今年6月,OpenAI被迫向好莱坞女星史考莉乔汉森(Scarlett Johansson)道歉,因为在其最新的聊天机器人中使用了与她的声音非常相似的声音,而这让语音负责技术成为人们关注的焦点。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT