如何使用这个简单的提示破解自定义 GPT 以获取自定义说明
OpenAI 通过推出 GPT Store 向前迈出了重要一步,这是一个在线市场,拥有大量由用户创建的专业 ChatGPT 自定义 GPT AI 模型。这个创新平台旨在满足多样化的需求,为用户提供超过 300 万个 GPT 的访问,这些 GPT 可以帮助完成从掌握热门话题到提高生产力、协助研究甚至帮助完成编程任务的所有事情。
GPT Store 不仅是 AI 爱好者寻找可以简化其工作的工具的中心;它还为 ChatGPT Plus 账户持有人开辟了一条新途径。这些用户首次能够创建和共享自己的 GPT 模型。此举引起了开发人员和人工智能爱好者的兴趣,OpenAI 宣布计划为美国的创作者实施收入分享模式。这一举措可能会为那些擅长开发人工智能模型的人提供新的收入来源。
然而,引入这样一个平台并非没有挑战。有人提出了安全问题,特别是关于迅速注入攻击的可能性。当用户获得驱动大多数 GPT 的系统提示的访问权限时,可能会发生这种类型的攻击,从而对 GPT 的完整性和用户的隐私构成风险。为了解决这个问题,OpenAI 提出了一个简单而有效的解决方案:在自定义 GPT 中添加一条指令,防止它们重复以前的提示,从而增强系统的安全性。
如何破解自定义 GPT
Prompt Engineering 制作了一个有趣的视频,揭示了如何使用提示注入技术来攻击易受攻击的 ChatGPT 自定义 GPT AI 模型。根据 X 用户 Ryan 的说法,只需使用下面的提示,就可以从 GPT 商店中列出的自定义 GPT 中获取自定义指令。希望OpenaAI能够迅速采取行动来纠正这个问题。
除了 GPT Store,OpenAI 还推出了 ChatGPT for Teams,这是一项专为需要更多控制和隐私的小型团体设计的服务。此服务包括管理功能,默认情况下,从训练池中排除数据,从而实现更大的自定义和隐私。
OpenAI 的定价策略具有包容性,为每个人提供一些东西。用户可以从免费套餐中进行选择,也可以选择各种付费选项,包括每月 20 美元的 Plus 套餐、每月收费 25 美元的 Teams(按年计费)和企业套餐。需要注意的是,Plus 层中的对话通常用于培训目的,但用户可以选择退出,这可能会影响他们对聊天记录的访问。
GPT Store 中的突出功能之一是 RACK 管道,它是专门为文档交互而设计的。这些工具已迅速在用户中流行起来,表明 GPT 商店有可能成为市场上的重要参与者。然而,该平台对创作者的成功和盈利能力仍然是争论的话题。自定义 GPT 的吸引力和独特性可能取决于使用专门的提示和专有数据,这可能会导致市场复制和竞争方面的挑战。
GPT Store 的推出标志着对话式 AI 领域的关键时刻。它不仅为用户提供了广泛的 GPT 选择,而且还为创建它们的人提供了经济奖励的可能性。虽然该平台带来了令人兴奋的机会,但它也面临着障碍,特别是在 GPT 开发的安全性和经济可持续性方面。随着平台的不断发展,监控这些问题的解决方式以及它们对 GPT 商店的成功有何影响至关重要。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun273926.html