OpenAI 宣布其 ChatGPT 和 Whisper 模型现在可在其 API 上使用,为开发人员提供访问 AI 支持的语言和语音到文本功能的途径。
通过系统范围的优化,OpenAI 自去年 12 月以来已成功将 ChatGPT 的成本降低了 90%,现在它正在将这些节省的成本转嫁给 API 用户。
OpenAI 认为,实现 AI 全部潜力的最佳方式是让每个人都可以使用它进行构建。
今天宣布的变化可能会带来大量应用,每个人都可以从中受益。
更多企业可以利用 OpenAI 的语言和语音转文本功能来开发由 ChatGPT 和 Whisper 提供支持的下一代应用程序。
此外,OpenAI 还考虑了开发人员的反馈,并对其 API 服务条款进行了更改,以更好地满足他们的需求。
聊天GPT API
OpenAI 正在发布一个名为 gpt-3.5-turbo 的新 ChatGPT 模型系列,每 1k 代币的价格为 0.002 美元,比现有的 GPT-3.5 模型便宜十倍。
该模型非常适合许多非聊天用例,在 ChatGPT 产品中也是如此。
GPT 模型传统上使用表示为一系列标记的非结构化文本,而 ChatGPT 模型使用一系列带有元数据的消息。
但是,输入作为供模型使用的标记序列呈现给模型。
gpt-3.5-turbo 模型使用一种称为聊天标记语言 (ChatML) 的新格式。
ChatGPT 升级
OpenAI 不断改进其 ChatGPT 模型,旨在为开发人员提供这些升级。
使用 gpt-3.5-turbo 模型的人将始终收到推荐的稳定模型,同时仍然可以选择特定版本。
OpenAI 正在推出一个名为 gpt-3.5-turbo-0301 的新版本,该版本将至少在 6 月 1 日之前获得支持,预计将在 4 月发布新的稳定版本。
开发人员可以在模型页面上找到更新以切换到最新版本。
专用实例
OpenAI 现在为希望更好地控制模型版本和系统性能的用户提供专用实例。
默认情况下,请求在共享计算基础架构上处理,用户按请求付费。
但是,对于专用实例,开发人员需要支付一段时间来分配专门为他们的请求保留的计算基础设施。
开发人员可以完全控制实例的负载、启用更长上下文限制的选项以及固定模型快照的能力。
对于每天处理超过大约 4.5 亿个令牌的开发人员来说,专用实例可能具有成本效益。
OpenAI
OpenAI 于 2022 年 9 月推出了一种语音转文本模型 Whisper 作为开源 API。
Whisper API 已经获得了开发者社区的相当多的赞誉。但是,操作可能具有挑战性。
OpenAI 正在通过其 API 提供 large-v2 模型,为开发人员提供方便的按需访问,价格为每分钟 0.006 美元。
此外,与其他服务相比,OpenAI 的服务堆栈保证了更快的性能。Whisper API 可通过转录或翻译端点访问,它们可以将源语言转录或翻译成英语。
开发者焦点
OpenAI 在收到开发者的反馈后做出了具体的修改。这些变化的例子包括:
- 除非组织同意,否则不得将通过 API 提交的数据用于服务改进,包括模型训练。
- 建立默认的 30 天数据保留策略,并根据用户的需要选择更严格的保留。
- 改进其开发人员文档。
- 简化其服务条款和使用政策。
OpenAI 认识到提供可靠的服务对于保证 AI 惠及所有人是必要的。为此,OpenAI 致力于在未来几个月内提高其正常运行时间。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun217330.html