专栏名称: 计算机视觉工坊
专注于计算机视觉、VSLAM、目标检测、语义分割、自动驾驶、深度学习、AI芯片、产品落地等技术干货及前沿paper分享。这是一个由多个大厂算法研究人员和知名高校博士创立的平台,我们坚持工坊精神,做最有价值的事~
目录
相关文章推荐
央视财经  ·  最新航拍画面!救援正在进行→ ·  昨天  
21世纪经济报道  ·  这一幕,燃爆了! ·  2 天前  
南半球聊财经  ·  为什么要投资一个亏损的产品? ·  2 天前  
财经网  ·  沪指重返3300点,创业板指半日大涨3.63 ... ·  2 天前  
凤凰网财经  ·  暴涨3000%,卖爆了! ·  3 天前  
51好读  ›  专栏  ›  计算机视觉工坊

ICML、NIPS论文真的有巨大的贡献吗,感觉很强工作例如BERT,VIT其实idea都很简单?

计算机视觉工坊  · 公众号  ·  · 2024-12-23 07:00

正文

点击上方“ 计算机视觉工坊 ”,选择“星标”

干货第一时间送达


内容来自知乎,「计算机视觉工坊」整理,如有侵权请联系删除 https://www.zhihu.com/question/ 543028007

作者 董鑫

说个关于 MobileNet 的趣事.

MobileNet 基本上做过 CV 都知道吧, 引用也 1.6W+ 了.

之前 MobileNet 一作 Andrew Howard 来学校给一个课 TinyML 做讲座, 提到了关于 MobileNet 的趣事.

这篇文章被拒了两次 (具体是哪两个会记不清了, 好像是 CVPR 和 NeurIPS), 后来作者 "累觉不爱" 了, 索性就挂 Arxiv 了.

其实类似的例子还有 YOLO.

其实, 一篇工作中了, 说明得到了审稿人的认可, 当然是值得读一读的.

但是, 一篇工作没中, 同样可能是非常有价值的工作.

而一个工作变得被大家所熟知, 大概率是 <思路简单, 方法实用>

作者 momo

vit idea看似简单,但paper里的实验量惊人

transformer在小数据下,长期不如cnn

直到vit用了一亿的训练样本 实实在在超越了cnn

vit出来之前 把transformer用到cv上的尝试非常多

2018、19年youtube-8M上很多人都试过transformer,然后铩羽而归

那时候大家的感觉就是transformer不适合cv

所以有一个idea和把一个idea做动,区别还是挺大的。

假如你做vit,但长期使用的数据是百万这个量级(imagenet的量级),一直超不过ResNet,恐怕早就抑郁了,哭爹喊娘地去找导师,要求换课题。







请到「今天看啥」查看全文