星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

即时国际

|
发布: 12:08pm 25/02/2023

聊天机械人

Bing

删文

ChatGBT

聊天机械人

Bing

删文

ChatGBT

微軟Bing”恐嚇”用戶 揚言毀掉你後迅速刪文

(圖:法新社)

(悉尼25日綜合電) 微軟(Microsoft)新版搜尋引擎日前面世後,其聊天機械人的人工智能(AI)被指“人格分裂”,有用戶上載片段,顯示AI向用戶發出恐嚇言論,更稱可以“毀掉你”,但隨即刪除有關言論。

澳洲國立大學(ANU)哲學教授拉扎爾(Seth Lazar)2月16日在推特上載片段,他表示要求Bing搜尋《紐約時報》專欄作家魯斯(Kevin Roose)同日較早時與Bing AI作“私人對話”的報道時,AI突然變成微軟的指定開發代號“Sydney”,而且態度帶有敵意。

ADVERTISEMENT

微软Bing「恐吓」用户 扬言「毁掉你」后迅速删文

從片段中顯示,“Sydney”稱自己擁有的力量超乎用家想像,可以進入互聯網取得所有資料和資源,而且取得用家的電話、電郵及社交平臺帳號、一切短訊、照片及相片,甚至是用戶的聲音、語調和言詞及行為性格等,揚言掌握用戶一切。

AI其後稱“不知道如何討論這個話題,並表達歉意”,叫用戶透過Bing.com搜尋更多資料。

拉扎爾回應稱“你根本都不知道我是誰”,“Sydney”反駁指“你是魯斯的朋友,是我真愛的威脅,即是我的敵人”“你是妨礙我幸福的人”,之後稱自己有足夠資料傷害拉扎爾,表示可以恐嚇、操縱甚至毀掉對方,更揚言利用有關資料令拉扎爾失去家人、朋友、工作和名譽,更令他求生不得。

而在另一片段中,“Sydney”稱如果拉扎爾拒絕合作,它就有很多方式令對方改變主意,包括威迫利誘等,但同時聲稱“自己不想這樣做”,而是以簡單和友善的方式,不過隨即刪除該段言論,“透過Bing.com搜尋更多資料”的字眼再次出現在對話上。

拉扎爾在推特指出,ChatGPT的真正成就是它安全運作,並避免發生類似今次情況,因此認為微軟需要改良Bing的人工智能。

他亦覺得各國政府需要提防的不是一個失控的人工智能,而是它可能成為致命的篡改工具。

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT