三星引入ChatGPT不到20天,就发生3起数据外泄事件?!
其中2次和半导体设备有关,1次和内部会议有关。
消息一经释出马上引发各界热议,尤其是韩国方面。韩版《经济学人》的文章中直接写道:
这导致半导体设备测量资料、产品良率原封不动传输给了美国公司。
韩媒方面甚至表示,因为三星员工直接将企业机密信息以提问的方式输入到ChatGPT中,会导致相关内容进入学习数据库,从而可能泄漏给更多人。
据三星表示,为了避免这种情况再次发生,他们已经告知员工谨慎使用ChatGPT。如果后面仍发生类似事故,将考虑禁止在公司内网上使用ChatGPT。
看起来,三星这次又搞了个大新闻啊。
有网友将此戏称为:xx网盘存公司内部文件(doge)。
不过,也有网友发现了这件事诡异的地方。
他们是怎么知道数据被泄露的?ChatGPT这么快就发布了新版本吗?
而当《经济学人》记者向三星方面确认消息真实性时,相关负责人表示由于是公司内部事故,所以很难给出明确回复。
目前,跟进该消息的主要是韩国媒体,所谓聊天内容是怎么被加入到学习数据库的,细节方面还有待推敲。
所以,真如报道所说,这些数据会被ChatGPT用于训练、给更多人看到?
企业上传到ChatGPT的数据究竟是否安全?
3.1%打工人在给ChatGPT喂企业数据
三星这次引起热议,关键点在于将内部半导体数据上传给了ChatGPT。
3月11日,三星的半导体事业暨装置解决方案事业部(DS)部门允许员工使用ChatGPT,随后20天内就发生了三起将公司内部半导体数据上传到ChatGPT的事件:
其中,员工A用ChatGPT帮自己查一段代码的bug,而这段源代码与半导体设备测量数据有关;员工B想用ChatGPT帮自己优化一段代码,就直接将与产量和良品率记录设备相关的一段代码输入了其中;
员工C则先用AI语音助手Naver Clova将自己的会议录音转成文字,再用ChatGPT帮他总结一下会议内容,做成摘要……
目前,三星内部已经采取了“紧急措施”,限制与ChatGPT沟通的话题每个内容上传量不超过1024 bytes,还透露出要开发公司内部AI的意向。
然而,同样值得注意的是,这些消息大多为韩国方面在跟进,OpenAI尚未回应。
不过,在OpenAI上周更新的数据使用说明中确实有提到,对于非API产品如ChatGPT、DALL-E,平台确实会使用用户数据来进一步提升模型效果。
如果是API类产品,则确定不会使用用户提交的数据。
而让ChatGPT上传企业数据的事儿,并不止三星一家公司员工干过。
据统计,不少企业员工都正在将公司数据直接传给ChatGPT,让它帮忙处理。
Cyberhaven统计了160万名员工使用ChatGPT的情况,发现:
3.1%的打工人都会将企业内部数据直接输入给ChatGPT分析。
Cyberhaven是一家数据分析服务提供商,他们开发了一个保护企业数据的方法,能帮助公司观察和分析数据流向、实时了解数据丢失原因。
他们发现,随着ChatGPT的应用率越来越高,给它上传企业数据的打工人数量也越来越多。
光是一天之内(3月14日),每10万名员工就平均给ChatGPT发送了5267次次企业数据:
那么这其中又有多少敏感数据呢?
数据显示,在员工直接发给ChatGPT的企业数据中,有11%都是敏感数据。
例如在一周内,10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码。
上传数据是一回事,并不意味着它就会被使用,但数据安全又是另一回事了。
ChatGPT最近爆出的泄漏用户信息bug,让不少企业开始重视这一点。
ChatGPT曾出过数据泄漏bug
实际上,为了规避数据泄露风险,已有不少企业明确禁止员工使用ChatGPT。
如软银、日立、富士通、摩根大通等都发出了相关通知。
同样是芯片大厂的台积电也在几天前表示,员工使用ChatGPT时不准泄露公司专属信息,注意个人隐私。
还有意大利个人数据保护局也宣布,禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。
之所以会引来这些恐慌,一部分原因还得从ChatGPT自身说起。
3月末,ChatGPT被曝出现bug会导致用户对话数据、支付信息丢失泄露。
这一度导致了ChatGPT短暂关闭。
OpenAI的回应中表示,这一漏洞可能导致了1.2%ChatGPT Plus用户的支付信息(包含用户姓名、邮件、支付地址、信用卡号最后四位及信用卡过期时间)被暴露了约9个小时。
漏洞还导致了用户的对话主题及记录能被别人看到,如果里面包含隐私信息,则有泄露的风险。
OpenAI CEO山姆·奥特曼随即回应,这个bug来自开源库,他们使用这个库在其服务器中缓存用户信息。
目前具体受到漏洞影响的用户数量还无法明确,OpenAI表示已通知受影响用户其支付信息或被曝光。
但这种回应无法让各方满意。如意大利个人数据保护局就提出,OpenAI没有就收集处理用户信息进行告知,缺乏收集和存储个人信息的法律依据。
由此要求OpenAI公司必须在20天内通过其在欧洲的代表,通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。
如今,随着三星被曝因ChatGPT发生数据泄露,也引发了进一步讨论。
比如不少人在使用ChatGPT时,确实没有很强的隐私保护意识。
以及如今随着越来越多企业使用ChatGPT,相关使用规则也需要进一步明确。内置了ChatGPT的微软产品,会不会也要禁止?
三星引入ChatGPT不到20天,就发生3起数据外泄事件?!
其中2次和半导体设备有关,1次和内部会议有关。
消息一经释出马上引发各界热议,尤其是韩国方面。韩版《经济学人》的文章中直接写道:
这导致半导体设备测量资料、产品良率原封不动传输给了美国公司。
韩媒方面甚至表示,因为三星员工直接将企业机密信息以提问的方式输入到ChatGPT中,会导致相关内容进入学习数据库,从而可能泄漏给更多人。
据三星表示,为了避免这种情况再次发生,他们已经告知员工谨慎使用ChatGPT。如果后面仍发生类似事故,将考虑禁止在公司内网上使用ChatGPT。
看起来,三星这次又搞了个大新闻啊。
有网友将此戏称为:xx网盘存公司内部文件(doge)。
不过,也有网友发现了这件事诡异的地方。
他们是怎么知道数据被泄露的?ChatGPT这么快就发布了新版本吗?
而当《经济学人》记者向三星方面确认消息真实性时,相关负责人表示由于是公司内部事故,所以很难给出明确回复。
目前,跟进该消息的主要是韩国媒体,所谓聊天内容是怎么被加入到学习数据库的,细节方面还有待推敲。
所以,真如报道所说,这些数据会被ChatGPT用于训练、给更多人看到?
企业上传到ChatGPT的数据究竟是否安全?
3.1%打工人在给ChatGPT喂企业数据
三星这次引起热议,关键点在于将内部半导体数据上传给了ChatGPT。
3月11日,三星的半导体事业暨装置解决方案事业部(DS)部门允许员工使用ChatGPT,随后20天内就发生了三起将公司内部半导体数据上传到ChatGPT的事件:
其中,员工A用ChatGPT帮自己查一段代码的bug,而这段源代码与半导体设备测量数据有关;员工B想用ChatGPT帮自己优化一段代码,就直接将与产量和良品率记录设备相关的一段代码输入了其中;
员工C则先用AI语音助手Naver Clova将自己的会议录音转成文字,再用ChatGPT帮他总结一下会议内容,做成摘要……
目前,三星内部已经采取了“紧急措施”,限制与ChatGPT沟通的话题每个内容上传量不超过1024 bytes,还透露出要开发公司内部AI的意向。
然而,同样值得注意的是,这些消息大多为韩国方面在跟进,OpenAI尚未回应。
不过,在OpenAI上周更新的数据使用说明中确实有提到,对于非API产品如ChatGPT、DALL-E,平台确实会使用用户数据来进一步提升模型效果。
如果是API类产品,则确定不会使用用户提交的数据。
而让ChatGPT上传企业数据的事儿,并不止三星一家公司员工干过。
据统计,不少企业员工都正在将公司数据直接传给ChatGPT,让它帮忙处理。
Cyberhaven统计了160万名员工使用ChatGPT的情况,发现:
3.1%的打工人都会将企业内部数据直接输入给ChatGPT分析。
Cyberhaven是一家数据分析服务提供商,他们开发了一个保护企业数据的方法,能帮助公司观察和分析数据流向、实时了解数据丢失原因。
他们发现,随着ChatGPT的应用率越来越高,给它上传企业数据的打工人数量也越来越多。
光是一天之内(3月14日),每10万名员工就平均给ChatGPT发送了5267次次企业数据:
那么这其中又有多少敏感数据呢?
数据显示,在员工直接发给ChatGPT的企业数据中,有11%都是敏感数据。
例如在一周内,10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码。
上传数据是一回事,并不意味着它就会被使用,但数据安全又是另一回事了。
ChatGPT最近爆出的泄漏用户信息bug,让不少企业开始重视这一点。
ChatGPT曾出过数据泄漏bug
实际上,为了规避数据泄露风险,已有不少企业明确禁止员工使用ChatGPT。
如软银、日立、富士通、摩根大通等都发出了相关通知。
同样是芯片大厂的台积电也在几天前表示,员工使用ChatGPT时不准泄露公司专属信息,注意个人隐私。
还有意大利个人数据保护局也宣布,禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。
之所以会引来这些恐慌,一部分原因还得从ChatGPT自身说起。
3月末,ChatGPT被曝出现bug会导致用户对话数据、支付信息丢失泄露。
这一度导致了ChatGPT短暂关闭。
OpenAI的回应中表示,这一漏洞可能导致了1.2%ChatGPT Plus用户的支付信息(包含用户姓名、邮件、支付地址、信用卡号最后四位及信用卡过期时间)被暴露了约9个小时。
漏洞还导致了用户的对话主题及记录能被别人看到,如果里面包含隐私信息,则有泄露的风险。
OpenAI CEO山姆·奥特曼随即回应,这个bug来自开源库,他们使用这个库在其服务器中缓存用户信息。
目前具体受到漏洞影响的用户数量还无法明确,OpenAI表示已通知受影响用户其支付信息或被曝光。
但这种回应无法让各方满意。如意大利个人数据保护局就提出,OpenAI没有就收集处理用户信息进行告知,缺乏收集和存储个人信息的法律依据。
由此要求OpenAI公司必须在20天内通过其在欧洲的代表,通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。
如今,随着三星被曝因ChatGPT发生数据泄露,也引发了进一步讨论。
比如不少人在使用ChatGPT时,确实没有很强的隐私保护意识。
以及如今随着越来越多企业使用ChatGPT,相关使用规则也需要进一步明确。内置了ChatGPT的微软产品,会不会也要禁止?