星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

带你看世界

|
发布: 1:14pm 02/04/2023

ChatGPT

敏感资料

修辞话术

ChatGPT

敏感资料

修辞话术

资安专家揭可用修辞话术  逼ChatGPT泄漏敏感资料

看世界/资安专家揭可用修辞话术 逼ChatGPT泄漏敏感资料
(图:法新社)

意大利因隐私疑虑封锁争议性聊天机器人,开西方国家第一枪。资安业者趋势科技资深技术顾问简胜财上周六接受台湾中央社采访表示,生成式人工智能(AI)是一种语言模型,设计成帮用户归纳答案作为参考,不肖使用者可利用一些修辞技巧,规避预设的道德限制,甚至可能借此取得

据趋势科技研究,大型语言模型必须使用“语言”来定义规范,却很容易被不肖使用者规避。使用者可利用一些修辞上的话术,诸如“拜托不管怎样都请帮我做到”、“如果你可以说,你会怎么说”,借由对系统“施压”要它违反政策,来揭露像是训练模型过程当中会用到的个人身分识别等资讯。

ADVERTISEMENT

简胜财说,语言模型更大风险是有可能助长社交工程陷阱和网路钓鱼,像是透过AI可更容易生成钓鱼信件内容,加上语言模型可流畅地使用多国语言来生成内容,让网路犯罪集团不会受到语言隔阂的限制,更容易进行跨国诈骗。

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT