Samsung 已禁止员工使用像 ChatGPT 这类生成式 AI 工具,原因是早前有员工将敏感代码上载至平台,引致公司机密外泄。
Samsung 担心,传送至包括Google Bard和Bing在内的这些人工智能平台的数据会储存在外部服务器上,这使得其难以删除,而且数据有可能最终被披露。
Samsung上月就内部使用 AI 工具进行了调查,结果显示 65% 的受访者认为这些服务存在安全风险。 据备忘录称,四月初,三星工程师在上传数据至ChatGPT时,意外泄露了内部源始码,尚不清楚该信息包含哪些内容。
一名三星代表向彭博证实,该公司在上周发送了一份禁止使用生成AI服务的备忘录。 Samsung 告诉员工:「对于像 ChatGPT 这样的生成式 AI 平台,内外部均日益关注。 虽然这种关注集中在这些平台的实用性和效率上,但生成式 AI 带来的安全风险担忧也在不断增长。」
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun227154.html