C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  少将

注册:2016-11-17265
发表于 2023-4-3 09:58:16 |显示全部楼层
来源:量子位(公众号 QbitAI)明敏 萧箫 发自 凹非寺
SAMSUNG引入ChatGPT不到20天,就发生3起数据外泄事件?!

其中2次和半导体设备有关,1次和内部会议有关。

消息一经释出马上引发各界热议,尤其是韩国方面。韩版《经济学人》的文章中直接写道:

这导致半导体设备测量资料、产品良率原封不动传输给了美国企业。

640?wx_fmt=png

韩国媒体方面甚至表示,因为SAMSUNG员工直接将企业机密信息以提问的方式输入到ChatGPT中,会导致相关内容进入学习数据库,从而可能泄漏给更多人。

据SAMSUNG表示,为了避免这种情况再次发生,他们已经告知员工谨慎使用ChatGPT。如果后面仍发生类似事故,将考虑禁止在企业内网上使用ChatGPT。

看起来,SAMSUNG这次又搞了个大资讯啊。

有网友将此戏称为:xx网盘存企业内部文件(doge)。

640?wx_fmt=png

不过,也有网友发现了这件事诡异的地方。

他们是怎么知道数据被泄露的?ChatGPT这么快就发布了新版本吗?

640?wx_fmt=png

而当《经济学人》记者向SAMSUNG方面确认消息真实性时,相关负责人表示由于是企业内部事故,所以很难给出明确回复。

目前,跟进该消息的主要是韩国媒体,所谓聊天内容是怎么被加入到学习数据库的,细节方面还有待推敲。

所以,真如报道所说,这些数据会被ChatGPT用于训练、给更多人看到?

企业上传到ChatGPT的数据究竟是否安全?

3.1%打工人在给ChatGPT喂企业数据
SAMSUNG这次引起热议,关键点在于将内部半导体数据上传给了ChatGPT。

3月11日,SAMSUNG的半导体事业暨装置解决方案事业部(DS)部门允许员工使用ChatGPT,随后20天内就发生了三起将企业内部半导体数据上传到ChatGPT的事件:

其中,员工A用ChatGPT帮自己查一段代码的bug,而这段源代码与半导体设备测量数据有关;员工B想用ChatGPT帮自己优化一段代码,就直接将与产量和良品率记录设备相关的一段代码输入了其中;

员工C则先用AI语音助手Naver Clova将自己的会议录音转成文字,再用ChatGPT帮他总结一下会议内容,做成摘要……

目前,SAMSUNG内部已经采取了“紧急措施”,限制与ChatGPT沟通的话题每个内容上传量不超过1024 bytes,还透露出要开发企业内部AI的意向。

然而,同样值得注意的是,这些消息大多为韩国方面在跟进,OpenAI尚未回应。

不过,在OpenAI上周更新的数据使用说明中确实有提到,对于非API产品如ChatGPT、DALL-E,平台确实会使用用户数据来进一步提升模型效果。

如果是API类产品,则确定不会使用用户提交的数据。

640?wx_fmt=png

而让ChatGPT上传企业数据的事儿,并不止SAMSUNG一家企业员工干过。

据统计,不少企业员工都正在将企业数据直接传给ChatGPT,让它帮忙处理。

Cyberhaven统计了160万名员工使用ChatGPT的情况,发现:

3.1%的打工人都会将企业内部数据直接输入给ChatGPT分析。

Cyberhaven是一家数据分析服务提供商,他们开发了一个保护企业数据的方法,能帮助企业观察和分析数据流向、实时了解数据丢失原因。

他们发现,随着ChatGPT的应用率越来越高,给它上传企业数据的打工人数量也越来越多。

光是一天之内(3月14日),每10万名员工就平均给ChatGPT发送了5267次次企业数据:

640?wx_fmt=png

那么这其中又有多少敏感数据呢?

数据显示,在员工直接发给ChatGPT的企业数据中,有11%都是敏感数据。

例如在一周内,10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码。

640?wx_fmt=png

上传数据是一回事,并不意味着它就会被使用,但数据安全又是另一回事了。

ChatGPT最近爆出的泄漏用户信息bug,让不少企业开始重视这一点。

ChatGPT曾出过数据泄漏bug
实际上,为了规避数据泄露风险,已有不少企业明确禁止员工使用ChatGPT。

如软银、日立、富士通、摩根大通等都发出了相关通知。

同样是芯片大厂的台积电也在几天前表示,员工使用ChatGPT时不准泄露企业专属信息,注意个人隐私。

还有意大利个人数据保护局也宣布,禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI企业处理意大利用户信息。
之所以会引来这些恐慌,一部分原因还得从ChatGPT自身说起。

3月末,ChatGPT被曝出现bug会导致用户对话数据、支付信息丢失泄露。

这一度导致了ChatGPT短暂关闭。

OpenAI的回应中表示,这一漏洞可能导致了1.2%ChatGPT Plus用户的支付信息(包含用户姓名、邮件、支付地址、信用卡号最后四位及信用卡过期时间)被暴露了约9个小时。

漏洞还导致了用户的对话主题及记录能被别人看到,如果里面包含隐私信息,则有泄露的风险。

OpenAI CEO山姆·奥特曼随即回应,这个bug来自开源库,他们使用这个库在其服务器中缓存用户信息。

640?wx_fmt=png

目前具体受到漏洞影响的用户数量还无法明确,OpenAI表示已通知受影响用户其支付信息或被曝光。

但这种回应无法让各方满意。如意大利个人数据保护局就提出,OpenAI没有就收集处理用户信息进行告知,缺乏收集和存储个人信息的法律依据。

由此要求OpenAI企业必须在20天内通过其在欧洲的代表,通报企业实行保护局要求而采取的措施,否则将被处以最高2000万欧元或企业全球年营业额4%的罚款。

如今,随着SAMSUNG被曝因ChatGPT发生数据泄露,也引发了进一步讨论。

比如不少人在使用ChatGPT时,确实没有很强的隐私保护意识。

640?wx_fmt=png

以及如今随着越来越多企业使用ChatGPT,相关使用规则也需要进一步明确。内置了ChatGPT的MicroSoft产品,会不会也要禁止?

640?wx_fmt=png

对此,你怎么看呢?


举报本楼

本帖有 16 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2024-11-25 18:40 , Processed in 0.240574 second(s), 19 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图