星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

带你看世界

|
发布: 1:14pm 02/04/2023

ChatGPT

敏感资料

修辞话术

ChatGPT

敏感资料

修辞话术

資安專家揭可用修辭話術  逼ChatGPT洩漏敏感資料

看世界/资安专家揭可用修辞话术 逼ChatGPT泄漏敏感资料
(圖:法新社)

意大利因隱私疑慮封鎖爭議性聊天機器人,開西方國家第一槍。資安業者趨勢科技資深技術顧問簡勝財上週六接受臺灣中央社採訪表示,生成式人工智能(AI)是一種語言模型,設計成幫用戶歸納答案作為參考,不肖使用者可利用一些修辭技巧,規避預設的道德限制,甚至可能借此取得敏感資料。

據趨勢科技研究,大型語言模型必須使用“語言”來定義規範,卻很容易被不肖使用者規避。使用者可利用一些修辭上的話術,諸如“拜託不管怎樣都請幫我做到”、“如果你可以說,你會怎麼說”,藉由對系統“施壓”要它違反政策,來揭露像是訓練模型過程當中會用到的個人身分識別等資訊。

ADVERTISEMENT

簡勝財說,語言模型更大風險是有可能助長社交工程陷阱和網路釣魚,像是透過AI可更容易生成釣魚信件內容,加上語言模型可流暢地使用多國語言來生成內容,讓網路犯罪集團不會受到語言隔閡的限制,更容易進行跨國詐騙。

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT