专栏名称: 深度学习工坊
一个专注深度学习方向的公众号,专注分享实战干货,涉及机器学习、CV、NLP、C/C++、Python等方向。
目录
相关文章推荐
京检在线  ·  投票啦!北京检察机关2个作品入围2024中国 ... ·  11 小时前  
京检在线  ·  投票啦!北京检察机关2个作品入围2024中国 ... ·  11 小时前  
腾讯安全威胁情报中心  ·  腾讯云 CLS × ... ·  昨天  
AIGC开放社区  ·  AI帮外贸商家接到2000万美金大单后,阿里 ... ·  3 天前  
AIGC开放社区  ·  AI帮外贸商家接到2000万美金大单后,阿里 ... ·  3 天前  
网信上海  ·  打击网络谣言 共建清朗家园 ... ·  3 天前  
51好读  ›  专栏  ›  深度学习工坊

屠榜各大CV任务!「百度顶会论文复现营」携Swin Transformer来袭!

深度学习工坊  · 公众号  ·  · 2021-05-12 00:00

正文


目标检测刷到58.7 AP!

实例分割刷到51.1 Mask AP!!

语义分割在ADE20K上刷到53.5 mIoU!!!

......


Swin Transformer持续屠榜各大CV任务,并且均名列前茅!


通过分层体系结构,带来的高效率、灵活性、线性计算复杂性,实现了多种视觉任务兼容,例如图像分类和密集的预测任务。


这些都离不开背后的大功臣——【 Swin Transformer: Hierarchical Vision Transformer using Shifted Windows 】,可谓一篇论文搅起江湖雨!



这些年,顶会论文接收量不断破纪录,要想 把握技术最新的发展方向和技术成就 顶会论文无疑是最好的途径之一。 复现论文则是 高效的学习方式 ,快速掌握论文的核心逻辑和技术点,提升个人实力!


你可以在预印论文网站、期刊/会议、公众平台等找到论文,但是, 水货与硬核齐飞,质量参差不齐,要想复现顶会论文难度超大......



现在,百度开设了最新一期「 百度顶会论文复现营 」,以 近期CV领域最为火爆的 Vision Transformer 技术为主线 ,通过 目标检测任务为基础 ,带大家 精读 前沿热门顶会论文, 深入剖析思路与关键点


「复现营」老师来自 中科院 ,以及 百度 的工程师,实力强劲。持续半个多月,采用 在线直播课+社群实时答疑 ,全程手把手带你复现!


同时,复现营提供AI Studio在线实训平台,免费Tesla V100 多卡GPU算力支持复现。百度承担课程与算力费用,平均数万元/人, 不收取任何费用 免费学习还有机会领取 万元奖学金



复现顶会论文,引领AI高阶技术


顶会论文算法理论原理精讲

从模型底层原理出发,精通Transformer等前沿算法原理与架构,掌握前沿算法思路与设计理念,打下扎实CV算法理论功底,助力学术探索。


模型代码深入解析与实操

模型深入解析,代码细节实操,中科院顶会论文作者、百度资深算法工程师结合多年实战经验, 分享宝贵算法调优经验。


实践顶会论文复现全过程

公布 8篇 Vision Transformer技术前沿顶会论文list,手把手带你实践论文复现全流程: 论文筛选-论文精读-模型搭建-算法调优。



学习奖励计划


1. 8篇复现论文中,每篇效果最优的同学,得 10000-20000元 奖学金 。


2. 优秀学员有机会 入职百度


3. 成功复现论文,认证成为 百度飞桨技术专家 (PPDE)


4、活动期间,参与论文精读分享、高效工具开发等其他活动,可得 京东卡 等奖项。



复现营学习内容

Time

学习安排

第一部分 百度顶会论文复现营开营(5.13)


第二部分 直播教学完成论文复现 (5.14-5.30)

1. 目标检测综述

2. Vision Transformer发展综述

3. Vision Transformer相关论文理论与代码详解

4. 论文复现技巧实战

5. Vision Transformer重点Paper领取

6. 顶会论文工作分享

第三部分 百度顶会论文复现营结营(5.31)



重点复现论文清单:

(1)End-to-End Object Detection with Transformers

(2)DEFORMABLE DETR: DEFORMABLE TRANSFORMERS FOR END-TO-END OBJECT DETECTION

(3)Generative Adversarial Transformers

(4)Swin Transformer: Hierarchical Vision Transformer using Shifted Windows

(5)Co-Scale Conv-Attentional Image Transformers

(6)Token Labeling: Training a 85.4% Top-1 Accuracy Vision Transformer with 56M Parameters on ImageNet







请到「今天看啥」查看全文