Meta发布图像分割模型SAM
Meta这周公开了他们的图像分割模型SAM(Segment Anything Model),这是一个可以轻松执行交互式分割和自动分割的单一模型。该模型的可提示接口使其可以以灵活的方式使用,只需为模型设计适当的提示(点击、框、文本等),就可以实现广泛的分割任务。此外,SAM是在一个多样化、高质量的掩码数据集上进行训练的(作为该项目的一部分收集),这使它能够推广到训练期间未观察到的新类型的对象和图像。这种泛化能力意味着,总的来说,从业者将不再需要收集自己的分割数据并微调模型以适应他们的用例。
最强的是它已经有了对“对象”的通用概念,即使是对于未知的对象、不熟悉的场景(例如水下和细胞显微镜)、模糊的情况也可以进行分割。Jim Fan认为这是计算机视觉领域的“GPT-3”时刻。
举个例子前几天不是已经有利用Stable Diffusion的图生图功能把假人模特变成真人图片,现在的一个关键问题是一些比较小的商品没有办法快速添加蒙版,依赖人工绘制蒙版,如果使用了这个图像分割模型添加蒙版的话就可以完全自动化了。
他们还开放了一个网页可以试用Demo,推荐去试一下,非常强,试用地址。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun235139.html