大家发现了吗?CVPR 2024已经开始放榜啦!!
在众多研究中,
EfficientSAM 这篇工作
以5/5/5满分收录于CVPR 2024!就连LeCun图灵奖得主也强烈推荐了该工作!
我们特邀到
美国Top10 CS博士,40余篇论文一作作者——
Paul老师
,带来主题直播
「cvpr满分工作efficientsam解读和拓展」
带我们探索
图像分割领域的未来发展趋势!
扫码参与直播(赠老师授课PPT)
免费领导师亲自整理「SAM分割一切」资料包
文末有福利
导师整理SAM资料包部分展示
图像分割一直是计算机视觉领域的重要研究方向
,在各国领域也是非常基础的任务,包括无人驾驶、医学影像分析、智能安防等。
传统的深度学习的分割模型
主要的缺点是泛化性能不强
,Segment Anything Model
(
SAM)作为一个里程碑式的图像分割大模型引起了广泛关注
。它可以根据点击、框选等简单交互(作为提示),快速准确地分割出图像中的任意目标,展现出了令人惊艳的全能分割效果。
扫码参与直播(赠老师授课PPT)
免费领导师亲自整理「SAM分割一切」资料包
文末有福利
SAM的优异表现得益于在海量标注数据上的预训练,但其巨大的模型参数和较长的推理时间也限制了真正的应用落地。
如何在保持较高性能的同时大幅压缩SAM的模型体量和计算量,是能够广泛应用SAM到实时任务的重要难题。
在该满分工作中,
Meta 研究者提出了另外一种改进思路 ——
利用 SAM 的掩码图像预训练 (SAMI)。
这是通过利用 MAE 预训练方法和 SAM 模型实现的,以获得高质量的预训练 ViT 编码器。
这一方法
降低了 SAM 的复杂性
,同时能够保持良好的性能。
研究者在目标检测、实例分割和语义分割上对预训练模型进行了微调。在所有这些任务中,本文方法都取得了比其他预训练基线更好的结果,更重要的是在小模型上获得了显著收益。
论文作者 Yunyang Xiong 表示:本文提出的 EfficientSAM 参数减少了 20 倍,但运行时间快了 20 倍,只与原始 SAM 模型的差距在 2 个百分点以内,大大优于 MobileSAM/FastSAM。
demo演示中,点击图中的动物,EfficientSAM 就能快速将物体进行分割:
EfficientSAM 还能准确标定出图片中的人:
还在为创新点而头秃,还在愁如何写出一篇好论文的科研党,一定都需要来自顶会论文作者、顶会审稿人的经验传授和指点。
很可能你卡了很久的某个点,在和学术前辈们聊完之后就能轻松解决。
扫码参与直播(赠老师授课PPT)
免费领导师亲自整理「SAM分割一切」资料包
文末有福利