专栏名称: FightingCV
一个专注于分享计算机视觉、多模态机器学习方向前沿论文,解答常见科研问题,分享好用科研工具的公众号。努力努力再努力,瑞思拜!
目录
相关文章推荐
冷笑话  ·  当你的穿搭和想象中的不一样~ ·  6 天前  
冷兔  ·  【冷兔•槽】每日一冷NO.4319 ·  5 天前  
51好读  ›  专栏  ›  FightingCV

阿里大模型员工也自曝了 996 作息表

FightingCV  · 公众号  ·  · 2024-02-26 09:00

正文

关注“FightingCV”公众号

回复“AI”即可获得超100G人工智能的教程

点击进入→ FightingCV交流群

思维链作者、从谷歌跳槽OpenAI的Jason Wei前脚刚自曝996作息表,国内的“卷王”们就按耐不住了

阿里通义千问团队NLP研究员Binyuan Hui晒出了自己的一天:

[9:00am] 醒来,可能会在床上多躺15分钟。
[9:30am] 打车上班,浏览X了解世界上正在发生的事情,查看@_jasonwei的最新帖子。
[10:00am] 工作开始,检查邮件,浏览arxiv,打开wandb查看昨天实验的结果。大多时候是叹气,但有时也有惊喜。
[11:00am]开会讨论项目进展。
[12:00pm] 在公司吃午饭。
[1:00pm] 回去干活,可能敲代码或看论文。
[2:00pm] 监督模型训练过程。
[3:00pm] 开会讨论项目进展。
[4:00pm] 喝咖啡休息。和优秀的研究者聊天,谈论他们最近的工作,寻找灵感。
[5:00pm] 敲代码。
[6:00pm] 在公司吃晚饭。
[7:00pm] 监督模型训练过程。
[8:00pm] 敲代码。
[9:00pm] 看论文并与实习生讨论想法。
[10:00pm] 坐地铁或打车回家。
[11:00pm] 准备睡觉,玩手机。
[12:00am] 最后检查,确保实验按预期进行。好吧,晚安。
[12:30am] 被@JustinLin610发来的消息吵醒,他分享了刚想到的一个好的想法。
[1:00am] 继续睡觉。
[1:30am] 给@JustinLin610发消息,叫醒他,分享我刚想到的好的想法…

蚌埠住了,网友看后也是给跪了“我需要你们两个来管理公司”:

阿里大模型员工版“996”

打开Binyuan Hui个人主页,可以看到Binyuan Hui是阿里达摩院的研究员,研究兴趣包括大语言模型、可执行语言、具身智能体等。

总之,是个地地道道的阿里人。那么他的这版996和Jason Wei的有啥区别嘞?

OpenAI的Jason Wei版是这样婶儿的:

两人作息表的起床、上班时间、吃饭时间都差不多,差距逐渐显现于“后半场”,Jason Wei晚上7点就回家,然后在家接着干活,而Binyuan Hui是在公司把活基本干完了,晚上十点回家,到家就准备睡觉。

不过,虽然Jason Wei直到一点多才上床睡觉,但人家睡了就是睡了,Binyuan Hui主打一个睡了还要再被吵醒,然后睡了再醒。

(想到一句歌词:没有人能随随便便成功)

也有眼尖网友当即指出Binyuan Hui相比之下“关键区别就是没喝点小酒”,Binyuan Hui本人又补充了一点“没有向优化之神致敬”:

当然在阿里也不是所有人都是这样婶儿的996,毕竟Binyuan Hui同事(就是打电话吵醒Binyuan Hui的那个)见了这作息表都要喊一句“优秀”:

为什么能做到这么拼?昨天Jason Wei作息表pou出来后,网友们已经发表了一波自己的看法,有人认为关键是钱给的到位,还有是这样认为的:

但甭管怎么说,网友们已经迫不及待想让两人比比“周末的一天”了

参考链接:https://twitter.com/huybery/status/1760183652766683449

量子位


往期回顾


基础知识

【CV知识点汇总与解析】|损失函数篇

【CV知识点汇总与解析】|激活函数篇

【CV知识点汇总与解析】| optimizer和学习率篇

【CV知识点汇总与解析】| 正则化篇

【CV知识点汇总与解析】| 参数初始化篇

【CV知识点汇总与解析】| 卷积和池化篇 (超多图警告)

【CV知识点汇总与解析】| 技术发展篇 (超详细!!!)


最新论文解析

NeurIPS2022 Spotlight | TANGO:一种基于光照分解实现逼真稳健的文本驱动3D风格化

ECCV2022 Oral | 微软提出UNICORN,统一文本生成与边框预测任务

NeurIPS 2022 | VideoMAE:南大&腾讯联合提出第一个视频版MAE框架,遮盖率达到90%

NeurIPS 2022 | 清华大学提出OrdinalCLIP,基于序数提示学习的语言引导有序回归

SlowFast Network:用于计算机视觉视频理解的双模CNN

WACV2022 | 一张图片只值五句话吗?UAB提出图像-文本匹配语义的新视角!

CVPR2022 | Attention机制是为了找最相关的item?中科大团队反其道而行之!

ECCV2022 Oral | SeqTR:一个简单而通用的 Visual Grounding网络

如何训练用于图像检索的Vision Transformer?Facebook研究员解决了这个问题!

ICLR22 Workshop | 用两个模型解决一个任务,意大利学者提出维基百科上的高效检索模型

See Finer, See More!腾讯&上交提出IVT,越看越精细,进行精细全面的跨模态对比!

MM2022|兼具低级和高级表征,百度提出利用显式高级语义增强视频文本检索

MM2022 | 用StyleGAN进行数据增强,真的太好用了

MM2022 | 在特征空间中的多模态数据增强方法

ECCV2022|港中文MM Lab证明Frozen的CLIP 模型是高效视频学习者

ECCV2022|只能11%的参数就能优于Swin,微软提出快速预训练蒸馏方法TinyViT

CVPR2022|比VinVL快一万倍!人大提出交互协同的双流视觉语言预训练模型COTS,又快又好!

CVPR2022 Oral|通过多尺度token聚合分流自注意力,代码已开源

CVPR Oral | 谷歌&斯坦福(李飞飞组)提出TIRG,用组合的文本和图像来进行图像检索