上下文
-
Ring Attention – 一种内存高效的方法
Ring Attention – 一种内存高效的方法 利用自注意力的分块计算将长序列分布到多个设备上,以克服 Transformer 架构固有的内存限制,从而能够在训练…
-
如何使用StreamingLLM提高LLM的速度
如果您注意到本地安装的LLM在尝试包含更大的提示时速度变慢。您可能对一种新的解决方案感兴趣,该解决方案可以提高大型语言模型的速度和性能,以StreamingLLM的形式帮助提高LL…
-
改善 ChatGPT 响应的 5 大技巧
对话式人工智能的出现彻底改变了我们与技术互动的方式。像ChatGPT这样的聊天机器人已经变得越来越复杂,为用户提供了更像人类的交互体验。但是,总有改进的余地。在本文中,我们将深入探…
-
Microsoft申请了新的人工智能智能背包专利。它可以听到你的声音,看到你所看到的
我们都见过智能设备:智能手机、智能冰箱,甚至智能家居。不过这一次,Microsoft似乎正在研究…全新AI支持的Microsoft智能背包。什么? 这家总部位于雷德蒙德…
-
ChatGPT 与 ChatGPT Enterprise 有什么区别?
OpenAI最近宣布推出其新的ChatGPT Enterprise服务,提供其GPT人工智能的定制AI版本,专为企业设计。但这两种产品的区别是什么?本 ChatGPT 与 Chat…
-
Poe 更新:文件上传、URL 检索、Claude 2 等等!
大家好, 今天我们在 Poe 上推出了新的、更强大的模型,增加了上下文窗口,包括刚刚发布的 Claude 2 及其 100k 代币窗口长度,以及一组新工具来帮助每个人利用它们。这些…
-
ChatGPT-16k和GPT-4-32k现在也可在 Poe 上使用
大家好, 今天我们在 Poe 上推出了新的、更强大的模型,增加了上下文窗口,包括刚刚发布的 Claude 2 及其 100k 代币窗口长度,以及一组新工具来帮助每个人利用它们。这些…
-
扩展LLMs的上下文窗口
扩展LLMs的上下文窗口 本文介绍了一种称为位置插值(PI)的方法,可以将基于RoPE的预训练LLM的上下文窗口大小扩展到32768个位置,并在各种任务上展示了强大的实证结果。该方…
-
MPT-30B:提高开源基础模型的标准
MPT-30B:提高开源基础模型的标准 MosaicML发布了新的开源模型MPT-30B,比之前的MPT-7B更强大,性能超过了原始的GPT-3。同时,他们还发布了两个基于MPT-…
-
ChatGLM2-6B 模型发布
ChatGLM2-6B 模型发布 之前效果不错的 ChatGLM模型发布了第二代。他们的6B 可以部署在消费级设备上的。 ChatGLM2-6B 是开源中英双语对话模型 ChatG…