上下文
-
一亿上下文长度的 LLM:LTM-2-Mini
一亿上下文长度的 LLM:LTM-2-Mini Magic 发布了一个具有 1 亿 Token 上下文的模型 LTM-2-mini。1 亿 Token相当于大约 1000 万行代码…
-
Jamba 1.5系列模型:非 Transformer 模型首次追上先进模型
Jamba 1.5系列模型:非 Transformer 模型首次追上先进模型 AI21 推出了新的 Jamba 1.5 模型家族,包括 Jamba 1.5 Mini 和 Jamba…
-
Anthropic 发布 Claude 3 工具使用API和上下文越狱方法
Anthropic 发布 Claude 3 工具使用API和上下文越狱方法 Cloud可以使用的工具由JSON模式表示,模型可以调用其中的任何工具,客户端可以将结果分发并返回。而且…
-
X AI 发布了Grok-1.5更新
X AI 发布了Grok-1.5更新 X AI 发布了Grok-1.5更新,具有更好的图里能力及 128K 的上下文长度。马斯克还说普通的 Premium 用户马上也可以使用 Go…
-
Claude 2.1 小说作家的写作提示和技巧
Claude 2.1 的发布在作者中引起了一些最初的担忧,特别是由于难以使用以前版本 Claude 2.0 中的既定技术。用户报告说,Claude 2.1 似乎没有那么有创意,而且…
-
Anthropic发布Claude 2.1
Anthropic发布Claude 2.1 在与 Open AI 的合并邀请中Anthropic非常稳健的发布了Claude 2.1模型,Claude 2.1升级主要包括下面几个方…
-
Claude 2.1 的新功能:最新的 AI 功能揭晓
Anthropic 最近推出了 Claude 2.1,它为 AI 聊天机器人带来了一些很棒的新功能。由 Anthropic 开发的 Claude 2.1 不仅仅是另一个聊天机器人;…
-
释放 Google Bard 的强大功能:创建自定义提示的指南
Google Bard 是由 Google AI 开发的大型语言模型,已成为生成文本、翻译语言、编写不同类型的创意内容以及以信息丰富的方式回答问题的强大工具。它的多功能性和适应各种…
-
关于如何充分利用 ChatGPT 响应的 14 个专家提示
在快节奏、不断变化的人工智能和机器学习世界中,ChatGPT 成为对话代理可以完成的杰出例子。它的曲目种类繁多,从制作复杂的诗歌和回答多方面的问题,到执行一系列任务,包括但不限于生…
-
将 LLM 当做操作系统
将 LLM 当做操作系统 大型语言模型(LLM)在扩展对话和文档分析等任务中存在上下文窗口有限的局限性。为了解决这个问题,作者提出了虚拟上下文管理,这是一种受传统操作系统的分层存储…