随着人工智能的进步,您现在拥有大量服务,可以帮助您从头开始创建任何东西,甚至是艺术。最近出现的流行工具之一是Midjourney,这是一种AI图像生成器,可以在几秒钟内使用文本提示创建令人惊叹的艺术品。
如果您想知道Midjourney是否与Stable Diffusion有联系,以及它们彼此之间有何不同,那么下面的帖子应该可以帮助您了解您需要了解的所有信息。
Midjourney是否使用Stable Diffusion?
在网络上进行简单的搜索将揭示在DALL-E和Stable Diffusion等图像生成工具上使用哪种技术。例如,Stable Diffusion使用由慕尼黑CompVis小组开发的潜在扩散模型(LDM)以及用于文本调节的CLIP ViT-L/14文本编码器。
当谈到Midjourney时,它的创建者没有提供任何关于他们使用什么训练模型的信息,或者它们是如何组合在一起的,也没有向公众发布他们的源代码。在撰写本文时,该工具目前在其 5 年 15 月 2023 日发布的 V4 模型上运行。这是对基于全新 AI 架构和代码库的 V<> 模型的升级。
Midjourney表示,新模型是自己设计的,并在自己的AI超集群上进行了训练。Midjourney的V5模型支持高一致性,并提供V4模型上的所有其他高级功能,如图像提示,多提示以及添加生物,地点和物体的较小细节的能力。
虽然它没有声称使用Stable Diffusion,但据推测,在Midjourney V5模型中所做的更改导致的图像看起来与通过Stable Diffusionv2所做的图像非常相似。因此,Midjourney有可能使用不同版本的潜在扩散模型,该模型为Stable Diffusion提供支持或共享Stable Diffusionv2的某些元素。
Midjourney与Stable Diffusion有何不同
基于各自的操作,Stable Diffusion鼓励开源模型,因为它共享其源代码供其他人使用或开发。任何人都可以使用其代码并设计自己的模型,方法是使用Stable Diffusion以他们想要的方式微调配置。Midjourney的情况并非如此,因为该公司将其图像生成工具作为专有产品提供,他们声称自己开发和训练模型,并且尚未发布源代码供其他人使用。
在输入方面,Midjourney将使用您的主要概念并添加自己的元素来生成图像。在此过程中,您的某些输入关键字可能会在生成过程中被忽略,因为该工具将使用相关颜色、照明和其他元素创建自己的迭代。如果您希望在Stable Diffusion上复制这些图像,则必须提供比在Midjourney输入的更长的提示,其中包含更多详细信息。
在Stable Diffusion上创建的图像可能与您使用 DALL-E 生成的图像相似且随机。Midjourney的输出有时看起来很独特,通常倾向于更暗或更戏剧性的背景。您可以在Midjourney使用体面的提示创建外观独特的图像,而如果您希望在Stable Diffusion上生成它们,您可能需要添加更多详细信息并更具体。这可能是一件好事,也可能是一件坏事,具体取决于您要利用的自定义级别。
在使用方面,Stable Diffusion为您提供了创建更多图像的库,因为它可以免费使用,并且在大多数情况下,您拥有生成图像的权利。另一方面,Midjourney只提供有限的试用版,您可以使用它生成多达25个创作。之后,您可能需要订阅他们的付费套餐,这可能会使您每月花费 8-48 美元,并且您的使用权利可能会因您订阅的计划而异。
这就是您需要了解的有关Midjourney是否使用Stable Diffusion的全部信息。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun225546.html