关注“FightingCV”公众号
回复“AI”即可获得超100G人工智能的教程
思维链作者、从谷歌跳槽OpenAI的Jason Wei前脚刚自曝996作息表,国内的“卷王”们就按耐不住了。
阿里通义千问团队NLP研究员Binyuan Hui晒出了自己的一天:
[9:00am] 醒来,可能会在床上多躺15分钟。
[9:30am] 打车上班,浏览X了解世界上正在发生的事情,查看@_jasonwei的最新帖子。
[10:00am] 工作开始,检查邮件,浏览arxiv,打开wandb查看昨天实验的结果。大多时候是叹气,但有时也有惊喜。
[11:00am]开会讨论项目进展。
[12:00pm] 在公司吃午饭。
[1:00pm] 回去干活,可能敲代码或看论文。
[2:00pm] 监督模型训练过程。
[3:00pm] 开会讨论项目进展。
[4:00pm] 喝咖啡休息。和优秀的研究者聊天,谈论他们最近的工作,寻找灵感。
[5:00pm] 敲代码。
[6:00pm] 在公司吃晚饭。
[7:00pm] 监督模型训练过程。
[8:00pm] 敲代码。
[9:00pm] 看论文并与实习生讨论想法。
[10:00pm] 坐地铁或打车回家。
[11:00pm] 准备睡觉,玩手机。
[12:00am] 最后检查,确保实验按预期进行。好吧,晚安。
[12:30am] 被@JustinLin610发来的消息吵醒,他分享了刚想到的一个好的想法。
[1:00am] 继续睡觉。
[1:30am] 给@JustinLin610发消息,叫醒他,分享我刚想到的好的想法…
蚌埠住了,网友看后也是给跪了“我需要你们两个来管理公司”:
阿里大模型员工版“996”
打开Binyuan Hui个人主页,可以看到Binyuan Hui是阿里达摩院的研究员,研究兴趣包括大语言模型、可执行语言、具身智能体等。
总之,是个地地道道的阿里人。那么他的这版996和Jason Wei的有啥区别嘞?
OpenAI的Jason Wei版是这样婶儿的:
两人作息表的起床、上班时间、吃饭时间都差不多,差距逐渐显现于“后半场”,Jason Wei晚上7点就回家,然后在家接着干活,而Binyuan Hui是在公司把活基本干完了,晚上十点回家,到家就准备睡觉。
不过,虽然Jason Wei直到一点多才上床睡觉,但人家睡了就是睡了,Binyuan Hui主打一个睡了还要再被吵醒,然后睡了再醒。
(想到一句歌词:没有人能随随便便成功)
也有眼尖网友当即指出Binyuan Hui相比之下“关键区别就是没喝点小酒”,Binyuan Hui本人又补充了一点“没有向优化之神致敬”:
当然在阿里也不是所有人都是这样婶儿的996,毕竟Binyuan Hui同事(就是打电话吵醒Binyuan Hui的那个)见了这作息表都要喊一句“优秀”:
为什么能做到这么拼?昨天Jason Wei作息表pou出来后,网友们已经发表了一波自己的看法,有人认为关键是钱给的到位,还有是这样认为的:
但甭管怎么说,网友们已经迫不及待想让两人比比“周末的一天”了:
参考链接:https://twitter.com/huybery/status/1760183652766683449
量子位
往期回顾
基础知识
【CV知识点汇总与解析】|损失函数篇
【CV知识点汇总与解析】|激活函数篇
【CV知识点汇总与解析】| optimizer和学习率篇
【CV知识点汇总与解析】| 正则化篇
【CV知识点汇总与解析】| 参数初始化篇
【CV知识点汇总与解析】| 卷积和池化篇 (超多图警告)
【CV知识点汇总与解析】| 技术发展篇 (超详细!!!)
最新论文解析
NeurIPS2022 Spotlight | TANGO:一种基于光照分解实现逼真稳健的文本驱动3D风格化
ECCV2022 Oral | 微软提出UNICORN,统一文本生成与边框预测任务
NeurIPS 2022 | VideoMAE:南大&腾讯联合提出第一个视频版MAE框架,遮盖率达到90%
NeurIPS 2022 | 清华大学提出OrdinalCLIP,基于序数提示学习的语言引导有序回归
SlowFast Network:用于计算机视觉视频理解的双模CNN
WACV2022 | 一张图片只值五句话吗?UAB提出图像-文本匹配语义的新视角!
CVPR2022 | Attention机制是为了找最相关的item?中科大团队反其道而行之!
ECCV2022 Oral | SeqTR:一个简单而通用的 Visual Grounding网络
如何训练用于图像检索的Vision Transformer?Facebook研究员解决了这个问题!
ICLR22 Workshop | 用两个模型解决一个任务,意大利学者提出维基百科上的高效检索模型
See Finer, See More!腾讯&上交提出IVT,越看越精细,进行精细全面的跨模态对比!
MM2022|兼具低级和高级表征,百度提出利用显式高级语义增强视频文本检索
MM2022 | 用StyleGAN进行数据增强,真的太好用了
MM2022 | 在特征空间中的多模态数据增强方法
ECCV2022|港中文MM Lab证明Frozen的CLIP 模型是高效视频学习者
ECCV2022|只能11%的参数就能优于Swin,微软提出快速预训练蒸馏方法TinyViT
CVPR2022|比VinVL快一万倍!人大提出交互协同的双流视觉语言预训练模型COTS,又快又好!
CVPR2022 Oral|通过多尺度token聚合分流自注意力,代码已开源
CVPR Oral | 谷歌&斯坦福(李飞飞组)提出TIRG,用组合的文本和图像来进行图像检索