训练
-
Fluxgym:FLUX Lora 训练工具
Fluxgym:FLUX Lora 训练工具 Fluxgym:一个非常简单的傻瓜式 FLUX Lora 训练工具。最低只需要12G显存就可以训练。后端还是用的Kohya脚本。使用方…
-
使用 Unsloth 更快地训练 LLM – 在 24 小时而不是 30 天内训练自定义 ChatGPT AI
训练大型语言模型是 AI 开发的关键部分,但这也是一个可能需要花费大量时间并消耗大量计算能力的过程。这就是 Moonshot 的 Unsloth 的用武之地,可让您更快地训练 LL…
-
使用 Unsloth 更快地训练 LLM – 在 24 小时而不是 30 天内训练自定义 ChatGPT AI
训练大型语言模型是 AI 开发的关键部分,但这也是一个可能需要花费大量时间并消耗大量计算能力的过程。这就是 Moonshot 的 Unsloth 的用武之地,可让您更快地训练 LL…
-
FaceChain是一个可以用来打造个人数字形象的深度学习模型工具
FaceChain是一个可以用来打造个人数字形象的深度学习模型工具。用户仅需要提供最低三张照片即可获得独属于自己的个人形象数字替身。FaceChain支持在gradio的界面中使用…
-
xAI Grok提供动力的引擎是Grok-1
Grok 是一个以《银河系漫游指南》为蓝本的 AI,因此几乎可以回答任何事情,更难的是,甚至可以建议要问什么问题! Grok 旨在以一点机智的方式回答问题,并且具有叛逆的倾向,所以…
-
Grok 模型的基本信息,Grok 是什么?
Grok 模型的基本信息 在宣布xAI之后,他们训练了一个拥有33B参数的原型LLM(Grok-0)。这个早期模型在标准的语言模型基准测试中接近LLaMA 2(70B)的能力,但只…
-
Perplexity发布自己训练的模型
Perplexity还是开始自己训练模型了,公布了自己训练的两个pplx-7b-chat 和 pplx-70b-chat模型。主要的特点是优先保证一系列任务的智力、有用性和多功能性…
-
8 到 512 卡 LLaMA2 训练、微调、推理方案,对 700 亿参数训练加速 195%
ChatGPT 引发的大模型热潮愈演愈烈,全球科技巨头和明星初创争相入局,打造以 AI 大模型为核心的竞争力和多样化商业使用需求。 LLaMA 系列模型,因良好的基础能力和开放生态…
-
如何使用自己的数据训练Llama 2
在不断发展的人工智能世界中,Hugging Face 的 Auto Train 库已成为游戏规则的改变者,使用户能够使用一行代码使用自己的数据集微调 Llama 2 模型。这个革命…
-
用一杯星巴克的成本训练你自己的 ChatGPT 模型
用一杯星巴克的成本训练你自己的 ChatGPT 模型 本文介绍了使用Apache DolphinScheduler进行开源大规模模型训练和部署的方法。只需花费一杯星巴克的费用和两个…