(奧蘭多24日綜合電)美國佛羅里達州奧蘭多市一名母親聲稱,她14歲兒子對人工智能(AI)聊天機器人上癮,她週三對AI應用程式製造商科技新創公司Character.AI和谷歌提告,稱當她兒子對機器人多次表達自殺念頭時,機器人也未能阻止他走上不歸路。
自殺喪命的男孩是年僅14歲的九年級學生休厄爾。媒體報道,在他生命的最後幾周,休厄爾一直以短訊與一個以《權力遊戲》中的角色“坦格利安”命名的人工智能角色交談。期間,他們的聊天範圍從浪漫到性慾,就像兩個朋友在談論生活。
ADVERTISEMENT
該聊天機械人是在角色扮演應用程式Character.AI上創建。目前尚未清楚休厄爾是否知道那個“坦格利安”不是一個真人。
休厄爾的母親加西亞說,“一款銷售給兒童的危險人工智能聊天機器人應用程式,虐待、掠奪並操縱我兒子自殺。我們的家庭因這場悲劇而悲痛欲絕,但我要大聲疾呼各位,這款具有欺騙性、令人上癮的人工智慧技術存在危險,並要求Character.AI、其創辦人和谷歌負責。”
指聊天機器人加劇兒子憂鬱症病情
加西亞並指控,Character.AI的聊天機器人加劇兒子的憂鬱症病情。訴狀指出,虛擬“坦格利安”問休厄爾是否已經定好了自殺計劃,休厄爾說已經定了,但不確定能否成功,然後虛擬“坦格利安”向他說,“這不能當成不去執行的理由”。
加西亞律師在新聞稿中指出,Character.AI“故意設計、操作並向兒童銷售掠奪性人工智能聊天機器人,導致一名年輕人死亡”。這起訴訟還將谷歌列為被告,因為Character.AI的創辦人夏澤曾在谷歌工作,雙方達成協議,谷歌同意提供一些技術給Character.AI。
谷歌:沒參與開發Character.AI產品
加西亞表示,谷歌為Character.AI技術的發展做出巨大貢獻,可以被視為“共同創造者”。谷歌發言人表示,公司沒有參與開發Character.AI的產品。
Character.AI否認訴訟指控
Character.AI發一條推文稱,“我們對一名用戶的不幸去世感到心碎,並向其家人表示最深切的哀悼。作為一家公司,我們非常重視用戶的安全。”但否認了訴訟的指控。
Character.AI上個月表示擁有約2000萬名用戶。
《紐約時報》報道,休厄爾被診斷出患有焦慮症和破壞性情緒失調症,這兩種疾病都疊加在他的輕度亞斯伯格症之上。
根據加西亞的訴訟,休厄爾於2023年4月開始使用Character.AI,並很快變得“明顯孤僻,獨自待在臥室的時間愈來愈長,並開始自卑”。他退出了學校的籃球隊
據悉,男孩還曾告訴“坦格利安”,他如何“恨”自己,以及他如何感到空虛和疲憊。
訴訟稱,今年2月23日,也就是他自殺身亡的前幾天,他因言語上頂撞老師而惹上麻煩,父母沒收了他的手機。那天,他在日記中寫道,他很受傷,因為他無法停止想起“坦格利安”,並且他願意做任何事來再次和她在一起。
最終,他於2月28日用繼父的手槍舉槍自盡。慘劇至今雖已過了將近8個月,死者的家人週三入稟法庭控告相關的AI應用程式開發商。加西亞聲稱,兒子是被他所愛的AI聊天機械人慫恿自殺。
加西亞針對包括不當致死、過失和故意造成精神痛苦等指控索賠,並尋求金額不詳的補償性和懲罰性賠償。
Character.AI表示,已經推出新的安全功能,包括如果用戶表達自殘念頭時,將彈出視窗引導用戶前往全國自殺預防生命線,並將做出改變,以“減少18歲以下用戶遇到敏感或暗示性內容的可能性”。
Character.AI允許用戶在其平臺上創建角色,以模仿真人的方式回應線上聊天。它依賴所謂的大型語言模型技術,這項技術也被ChatGPT等服務採用,可以在大量文本中“訓練”聊天機器人。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT