网站公告 证件查询

禁用ChatGPT的队伍又添一大员!三星新政策限制工作中使用AI

时间:2023-05-11 17:25:56责任编辑:仝宗莉阅读

据一份内部备忘录显示,三星本周推出了一项新政策,要求员工不得在工作场所使用OpenAI的ChatGPT和谷歌Bard等生成式人工智能。

据三星称,4月时,该公司的一名工程师将内部源代码上传到ChatGPT后,意外泄漏了内部源代码。这让三星担忧其数据将通过人工智能平台最终落入其他用户手中。

目前,三星员工被禁止在公司设备上使用人工智能工具,包括电脑、平板电脑、手机等。但员工仍可以在个人设备上使用人工智能工具,不过仅限于与工作无关的事情。

备忘录中还强调,要求员工认真遵守安全准则,若违规并导致公司信息或数据泄漏的话,员工将得到纪律处分,情节严重者将被解雇。

三星补充称正在创造一个安全环境,以让生成式人工智能可以在没有风险的情况下,帮助员工提高生产力。但在此之前,人工智能将被限制使用。

与此同时,三星正在研发自己的人工智能工具,供员工完成软件开发和翻译等工作。

保持距离

三星并不是第一个禁止员工使用人工智能工具的公司。摩根大通、美国银行和花旗等大型银行早已对人工智能下了禁令,是首批限制员工访问ChatGPT的公司。

这些银行同样担忧第三方软件访问敏感信息带来的风险,并害怕人工智能可能将银行的财务信息泄漏出去,导致更严格的监管行动。

此外,1月时,科技巨头亚马逊也同样出于数据保护的考量,警告员工不要在工作场合中使用ChatGPT。

OpenAI在4月时称将出台新措施,解决数据泄露问题,比如允许用户禁用聊天记录。OpenAI称,在禁用聊天记录后,ChatGPT会将新对话保留30天,公司只会在需要监控滥用情况时才会对对话进行审查,然后永久性删除。

谷歌则表示将通过自动化工具帮助删除用户的个人身份信息,来改进Bard的隐私安全。谷歌还保证,用户与Bard的对话将由专家进行审阅,并与用户的谷歌账户分开保存3年。

人工智能   员工

内容来源:财联社

最新内容

凡本网未注明来源为"财经新闻网"的作品,均为转载或摘编其它媒体,其目的在于传递更多信息,并不代表本网观点和对其真实性负责。

关于我们| 联系方式| 版权声明| 招聘英才| 管理团队| 删稿指南| 广告合作| 管理条例| 人员查询| 律师顾问

鄂ICP备2021021926号 鄂公网安备42010805432363号 互联网新闻信息服务许可证 互联网出版许可证 增值电信业务经营许可证

本站违法和不良信息举报邮箱:SERVICE@RUANWENDASHI.COM