发布统一模型:在图片和视频中实时分割对象
IT之家7月30日消息,Meta公司发布MetaSegmentAnythingModel2(SAM2),SAM2能分割任何目标,能在一个视频中实时追踪所有镜头——解锁新的视频编辑能力并在混合现实中提供新的体验。
Meta公司今天发布新闻稿,介绍了全新的MetaSegmentAnythingModel2(SAM2)模型,先支持分割视频和图像中的对象。
开源Meta公司宣布将以Apache2.0许可发布SAM2,因此任何人都可以使用它来构建自己的体验。
Meta还将以CCBY4.0许可共享用于构建SAM2的数据集SA-V,并发布基于网络的演示体验,所有人都可以在其中试用Meta的模型版本。
对象分割对象分割(Objectsegmentation)是指识别图像中与感兴趣物体相对应的像素,是计算机视觉领域的一项基本任务。
Meta公司去年发布了SAM1基础模型,已经可以在图像上分割对象。而最新发布的SAM2可用于图片和视频,并可以实现实时、可提示的对象分割。
SAM2在图像分割准确性方面超越了以往的能力,在视频分割性能方面优于现有成果,同时所需的交互时间减少了三倍。
SAM2还可以分割任何视频或图像中的任何对象(通常称为零镜头泛化),发布统一模型:在图片和视频中实时分割对象这意味着它可以应用于以前未见过的视觉内容,而无需进行自定义调整。
IT之家附上参考地址