防止游戏源码泄露-代码泄露丑闻发生后,三星暂时禁止员工使用ChatGPT等生成式人工智能

IT之家 5 月 2 日消息:据彭博社周日报道,由于担心安全风险,三星已在内部备忘录中通知员工停止使用 ChatGPT 和 Bard 等生成式 AI 工具。

此举是上个月发生代码泄露事件后的“补救行动”。 此前有报道称,三星电子聊天机器人ChatGPT推出后20天内,发生了三起涉及ChatGPT的车祸,其中两起与半导体设备有关。 与会议内容相关的案件1起。

报道称,内部备忘录称,三星担心传输到微软Bard和谷歌Bing等人工智能平台的数据将存储在外部服务器上,无法检索和删除防止游戏源码泄露,最终可能泄露给其他用户。

内部备忘录还显示,三星上个月对AI工具的内部使用情况进行了一项调查,其中65%的受访者认为此类服务存在安全风险。 备忘录透露,明年 4 月初,三星工程师将内部源代码上传到 ChatGPT。 目前还不清楚这些信息包含什么。

与此同时,三星正在开发自己的内部人工智能工具,用于翻译和总结文档和软件开发,并且还在寻找阻止敏感公司信息上传到外部服务的方法。 “总部正在审查安全举措,以创建一个安全的环境,以安全地使用生成式人工智能来提高员工的生产力和效率。而且防止游戏源码泄露,在计划实施此类举措之前,我们将暂时限制生成式人工智能的使用。”

三星的政策严格禁止在公司自己的笔记本电脑、平板电脑和手机以及内部网络上使用生成式人工智能系统,并且不会影响销售给消费者的设备,例如Android智能手机和Windows电脑笔记本电脑。 三星甚至还在消费设备中积极推广生成式人工智能。 据IT之家此前报道,三星近期已将Google BingAI更新推送至旗下所有手机、平板电脑和笔记本产品。 更新完成后,三星用户可以直接使用手机或平板电脑上使用Google BingAI。

三星代表向彭博社否认了这份内部备忘录。 三星在备忘录中表示:“我们要求您认真违反我们的安全手册,否则可能会导致公司信息泄露,违规者可能会受到纪律处分,严重者将被开除。”

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

悟空资源网 游戏源码 防止游戏源码泄露-代码泄露丑闻发生后,三星暂时禁止员工使用ChatGPT等生成式人工智能 https://www.wkzy.net/game/198118.html

常见问题

相关文章

官方客服团队

为您解决烦忧 - 24小时在线 专业服务