Stability AI发布视频生成模型 Stable Video Diffusion
上周Stability AI发布了他们预告了很久的视频生成模型,并且开源了相关模型的权重,从Stability AI发布的测试结果看 SVD 的效果在外部评估中超过了 Runway 和 Pika 这类目前最先进的视频模型。
从测试结果来看确实非常好,画面内容的运动非常自然,并且可以自己判断哪些内容应该进行运动,同时视频清晰度也可以保证。
但是目前发布的权重文件还有一些问题,包括硬件要求相较于 Animatediff 等还是太高,同时视频生成时优先倾向于进行镜头的移动。
不过Stability AI的 CEO 说这周会发布更多的权重文件来解决镜头移动的问题。
你现在可以在这个 Colab 链接上尝试 SVD:https://colab.research.google.com/github/mkshing/notebooks/blob/main/stable_video_diffusion_img2vid.ipynb
如果你的电脑显存够的话也可以使用这个 Comfyui 的工作流在本地尝试:https://comfyanonymous.github.io/ComfyUI_examples/video/
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun268041.html