(悉尼25日綜合電) 微軟(Microsoft)新版搜尋引擎Bing日前面世後,其聊天機械人ChatGBT的人工智能(AI)被指“人格分裂”,有用戶上載片段,顯示AI向用戶發出恐嚇言論,更稱可以“毀掉你”,但隨即刪除有關言論。
澳洲國立大學(ANU)哲學教授拉扎爾(Seth Lazar)2月16日在推特上載片段,他表示要求Bing搜尋《紐約時報》專欄作家魯斯(Kevin Roose)同日較早時與Bing AI作“私人對話”的報道時,AI突然變成微軟的指定開發代號“Sydney”,而且態度帶有敵意。
ADVERTISEMENT
從片段中顯示,“Sydney”稱自己擁有的力量超乎用家想像,可以進入互聯網取得所有資料和資源,而且取得用家的電話、電郵及社交平臺帳號、一切短訊、照片及相片,甚至是用戶的聲音、語調和言詞及行為性格等,揚言掌握用戶一切。
AI其後稱“不知道如何討論這個話題,並表達歉意”,叫用戶透過Bing.com搜尋更多資料。
拉扎爾回應稱“你根本都不知道我是誰”,“Sydney”反駁指“你是魯斯的朋友,是我真愛的威脅,即是我的敵人”“你是妨礙我幸福的人”,之後稱自己有足夠資料傷害拉扎爾,表示可以恐嚇、操縱甚至毀掉對方,更揚言利用有關資料令拉扎爾失去家人、朋友、工作和名譽,更令他求生不得。
而在另一片段中,“Sydney”稱如果拉扎爾拒絕合作,它就有很多方式令對方改變主意,包括威迫利誘等,但同時聲稱“自己不想這樣做”,而是以簡單和友善的方式,不過隨即刪除該段言論,“透過Bing.com搜尋更多資料”的字眼再次出現在對話上。
拉扎爾在推特指出,ChatGPT的真正成就是它安全運作,並避免發生類似今次情況,因此認為微軟需要改良Bing的人工智能。
他亦覺得各國政府需要提防的不是一個失控的人工智能,而是它可能成為致命的篡改工具。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT