Stability AI正式发布了我们期待已久的SDXL 1.0。下面是模型的介绍、使用方式和相关的资源链接:
SDXL的特点:
SDXL有两个模型组成第二个模型可以生成更鲜艳、更准确的颜色,并且比其前身具有更好的对比
度、光照和阴影。
SDXL 1.0 是所有开放获取图像模型中参数数量最多的模型之一,拥有 3.5B 参数基础模型和 6.6B 参数模型集成管道。
如何 在 Web UI 中使用 SDXL:
- 在这个地址下载SDXL的模型和vae:https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/tree/main
- 将下载到的模型文件放到\models\Stable-diffusion这个文件夹中
- 启动Web UI后将左上角Stable Diffusion checkpoint位置的模型切换为sd_xl_base_1.0.safetensors
- 其他设置正常就行,生成图像建议1024分辨率起步SDXL是在1024的基础上训练的
- 图片生成以后可以将图片发送到img2img,然后切换Stable Diffusion checkpoint位置的模型为sd_xl_refiner_1.0.safetensors如果你不想原图变太多的话可以把Denoising strength权重调整为0.2-0.3再次点击生成就可以。
需要注意的是SDXL 1.0 的 vea 由于数字水印的问题生成的图象会有彩色条纹的伪影存在,可以使用 0.9 的 vae 文件解决这个问题,青龙也做了一个修复的模型和 vae 整合版本:https://huggingface.co/bdsqlsz/stable-diffusion-xl-base-1.0_fixvae_fp16
相关资源链接:
你可以在Huggingface上下载开源的模型文件,前几天Web UI已经支持了SDXL模型:https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/tree/main
如果有有 Colab 的会员的话也可以用这个链接体验 web ui 版本一键部署:https://colab.research.google.com/github/camenduru/sdxl-colab/blob/main/sdxl_v1.0_webui_colab.ipynb
如果你想要立即体验的话可以在clipdrop线上尝试:https://clipdrop.co/stable-diffusion
也可以在stability API调用相关接口:https://platform.stability.ai/docs/release-notes
最后在dream studio也可以在线体验SDXL:https://dreamstudio.ai/
也可以尝试一下这个基于 SDXL 训练的模型:https://civitai.com/models/112902/dreamshaper-xl10
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun246111.html