星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

即时国际

发布: 3:36pm 22/06/2023

ChatGPT

账号被入侵

ChatGPT

账号被入侵

报告:ChatGPT用户账号被入侵 数据在暗网出售

报告:ChatGPT用户账号被入侵 数据在暗网出售
根据国际网络安全公司 Group-IB 的报告,超过10万名ChatGPT用户的个人信息被泄露,有黑客正在暗网交易平台进行出售。(互联网照片)

(新加坡22日综合电)在一份新的网络安全报告揭露OpenAI的用户账户被盗后,这个生成式人工智能(AI)聊天机器人继续引起人们对隐私的担忧。

在过去的一年里,超过10.1万个ChatGPT账户的个资被恶意软件窃取。

ADVERTISEMENT

根据一份新的报告,网络安全研究人员在非法暗网市场上交易的恶意软件档案中发现了这些信息。

ChatGPT可以就各种主题进行对话。根据Similarweb的数据,该服务在5月份的访问量达到了18亿次。

网络安全公司Group-IB在其报告中披露,欧洲近1.7万名ChatGPT用户的账户信息从所谓的“盗窃感染”的设备上被盗。

亚太地区是受影响最严重的地区,有近4.1万个账户被盗。印度是受影响最严重的国家,有超过1万2600个账户被盗。

总部位于新加坡的Group-IB致力于发现并防止网络袭击,识别网络诈骗,调查高科技犯罪并保护知识产权。

这家网络安全公司的分析显示,黑客是借助盗取信息的恶意软件入侵账号的。

这些工具允许犯罪分子从被入侵电脑的网络浏览器中获取数据,以此窃取保存在浏览器上的资历证明、银行卡详细信息、加密钱包信息、用户本地终端数据、浏览历史及其他信息。这些信息被打包在日志(log)中,并发送至黑客的服务器。

包含被骇ChatGPT帐号的窃密软体日志,从去年6月的74个成长到2023年5月的2万6802个。

ChatGPT的迅速走红也带来了隐私问题。今年3月,意大利以其涉嫌“非法收集个人数据”和缺乏年龄验证工具为由封杀ChatGPT。日本最近还向OpenAI发出警告,未经明确许可不得收集信息。

3月20日,这款风靡全球的聊天机器人遭遇数据泄露,其高级订阅服务用户的对话历史记录和支付信息被泄露。当时,OpenAI首席执行官奥特曼对此表示遗憾,并称公司已解决了这个问题。

事发后,OpenAI开始允许用户关闭聊天记录,这意味着对话将在30天后被删除,惟OpenAI会监控信息是否被滥用。该公司指出,如果用户选择不分享他们的历史记录,这些数据将不再用于训练聊天机器人。

Group-IB的舍塔科夫表示:“许多企业已开始将ChatGPT融入其营业流程中。”

“员工可以输入机密信件,或者使用机器人优化专有代码。考虑到ChatGPT的标准配置保留了所有对话,如果他们获得帐户凭据,这可能会无意中为威胁行为者提供大量敏感情报。”

考虑到安全和隐私风险,苹果和三星禁止员工使用ChatGPT。

ESET全球网络安全顾问摩尔表示:“人们可能没有意识到,他们的ChatGPT账户实际上可能包含大量敏感信息,而这些信息正是网络犯罪分子所垂涎的。”

“在默认情况下,它存储所有输入请求,供访问该帐户的人查看。因此,除非绝对必要,否则禁用聊天保存功能可能是一个明智的主意。”

他继指:“提供给ChatGPT的数据越多,对不法分子的吸引力就越大,因此建议你在基于云端的聊天机器人和其他服务中输入的信息时切记三思。”

打开全文

ADVERTISEMENT

热门新闻

百格视频

发布: 10:11am 17/04/2025
美国专家:用AI要小心 5资讯千万别告诉ChatGPT
用AI要小心!美国专家:5资讯千万别告诉ChatGPT
OpenAI:我们的目标是“让模型了解世界,而非个人”。(档案照)

(八打灵再也17日讯)ChatGPT等人工智能(AI)聊天机器人日渐普及,越来越多人将其当作日常生活和工作上的“得力助手”,然而美国专家提醒用户,在与AI互动时应格外小心,尤其有5类资讯绝对不宜输入,否则可能牵涉隐私泄露或资料外泄。

5类资讯分别为企业资讯及商业机密、医疗报告与检验结果、登录账号与密码、身分识别资讯、金融账号与银行资料。

史丹福大学以人为本人工智能研究所(Stanford HAI)研究员珍妮佛金接受《华尔街日报》访问时指出,一旦将某些资讯输入AI聊天机器人,用户就已失去它的掌控权。

1. 企业资讯及商业机密

不少用户在日常工作中使用ChatGPT,包括撰写电邮或编辑文件,若这些内容涉及客户资料或未公开的商业机密,便有可能在不知情下外泄。专家建议,企业若需使用AI工具,最好选择具备资料保护机制的企业版本或客制化AI程式。

2. 医疗报告与检验结果

尽管AI聊天机器人能协助解读复杂医学术语,但医疗资讯属高度敏感范畴,目前AI服务大多不受相关隐私法规所约束。若确需使用AI辅助解读,可考虑先移除报告中的个人资料,仅保留检测数据内容。

3. 登录账号与密码

虽然AI技术不断进步,但专家提醒,ChatGPT并非密码管理工具,不具备保护用户账号安全的功能。若需管理密码,应使用专门的加密软件或密码管理服务。

4. 身分识别资讯

切勿在ChatGPT等AI系统输入如身分证号码、护照编号、住址、电话号码等具身分辨识性质的资料。虽然有些聊天机器人会编辑敏感资讯,但完全避免分享这些个人资讯,才是更安全的选择。

5. 金融账号与银行资料

千万别将银行账号、投资账户等金融资讯输入AI聊天机器人,这类资料一旦被骇客掌握,可能导致资金流遭监控、盗用或其他安全隐患。

据报道,OpenAI和Google等多家AI开发公司均已在官方网站上提醒用户,避免上传任何敏感或不希望第三方接触的资料。

专家建议,若仍需处理较为敏感的事务,用户采取额外防范措施,例如使用高强度密码、启用多重要素认证,以及定期删除AI对话记录。

AI公司Anthropic也指出,用户可在每次使用完毕后删除对话记录,其系统一般会在30天后永久删除有关数据,以加强隐私保护。

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT