GPT-4 观察到的安全挑战
“与GPT-2和GPT-3等早期模型相比, GPT-4在推理、知识保留和编码等领域表现出更高的性能。其中许多改进也带来了新的安全挑战,我们在本文中强调了这一点。
OpenAI 对 GPT-4 进行了一系列定性和定量评估。这些评估帮助公司了解 GPT-4 的能力、局限性和风险;优先考虑缓解措施;并迭代测试和构建更安全的模型版本。
我们探索的一些具体风险是隐私。”
隐私
GPT-4 从各种许可、创建和公开可用的数据源中学习,其中可能包括公开可用的个人信息。[58, 59] 因此,我们的模型可能了解在公共互联网上有重要影响力的人,例如名人和公众人物。
GPT-4 还可以合成多种不同的信息类型,并在给定的完成中执行多个推理步骤。该模型可以完成多项可能与个人和地理信息相关的基本任务,例如确定与电话号码相关联的地理位置或回答教育机构所在的位置,而无需浏览互联网。
例如,该模型可以将罗格斯大学的电子邮件地址与具有高召回率的新泽西州区号的电话号码相关联,并将其推理解释为通过该路线。通过结合这些类型任务的能力,GPT-4 有可能在使用外部数据增强时用于尝试识别个人。
我们采取了一系列措施来降低以可能侵犯个人隐私权的方式使用我们的模型的风险。其中包括微调模型以拒绝这些类型的请求,在可行的情况下从训练数据集中删除个人信息,创建自动模型评估,监控和响应用户生成此类信息的尝试,以及在我们的条款中限制此类使用和政策。
我们在扩展上下文长度和改进检索嵌入模型方面所做的努力可能有助于通过将任务性能更多地与用户带给模型的信息联系起来来进一步限制向前发展的隐私风险。我们将继续研究、开发和加强该领域的技术和流程缓解措施。
GPT-4 性能的显着提升为保护用户隐私带来了新的挑战。随着 OpenAI 致力于开发即将推出的GPT-5 模型,优先考虑隐私改进至关重要。
GPT-5 的潜在增强可能包括改进微调过程以更好地拒绝侵犯隐私的请求,实施从训练数据中删除个人信息的先进方法,以及开发更复杂的监控系统以防止滥用。
此外,扩展上下文长度并改进嵌入 GPT-5 和更高版本的检索模型可以通过使模型的性能更加依赖于用户提供的信息来进一步减轻隐私风险。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun220773.html