OpenAI安全研究副总裁Lilian Weng宣布离职,其在OpenAI工作七年期间见证了OpenAI的发展壮大。她的离职引起了业内的关注,尤其是考虑到近期OpenAI多位高管和研究员的离职情况。Lilian Weng在OpenAI期间负责了多项重要项目,包括安全系统的建立和发展,以及应用研究工作等。她在机器学习领域有着深厚背景,并在学术界和工业界都有丰富经验。
Lilian Weng在OpenAI期间领导了安全团队,推出了多项重要成果,包括o1-preview模型等。
Lilian Weng在学术界和工业界都有丰富经验,其学术成果备受认可。
【新智元导读】
就在刚刚,OpenAI安全研究副总裁Lilian Weng发出长信,官宣离职!OpenAI的安全团队,还在继续分崩离析。Lilian Weng表示,自己终于有时间写更多博客了。
就在刚刚,OpenAI再次痛失一员大将。
安全研究副总裁Lilian Weng正式官宣离职。
她发出离职长信,回顾了2017年时,自己对OpenAI的使命是多么着迷。
在GPT-4发布后,她又被赋予了一个全新使命:重新思考OpenAI安全系统的愿景。
o1-preview,就是她们团队的最新成果。
如今,在OpenAI工作七年后,她感觉「是时候重新出发了」。
长期以来,Lilian Weng的博客篇篇都是精品,每每发出,都会引得圈内人士的大讨论。
OpenAI的前同事们,纷纷为她送上了祝福。
Jason Wei表示,感谢她做出的贡献,让o1-preview成为迄今为止最安全的模型。
OpenAI推理研究员、o1共同作者 Noam Brown祝福她,在下一个冒险中一切顺利。
OpenAI微调研究员Steven Heidel表示,期待她的下一篇博客文章。
前OpenAI首位开发者关系团队成员、现任谷歌高级产品经理Logan Kilpatrick则感谢她为推动安全使命所做的一切。
而Lilian Weng这次突然离职,或许也是长时间深思熟虑的结果。
比如维基媒体基金会机器学习总监在几天前的一条推文,似乎就暗示着她可能要离开。
亲爱的朋友们,我做出了一个极其艰难的决定,那就是离开OpenAI。
11月15日将是我在办公室的最后一天。
OpenAI是我作为科学家和领导者成长的地方,我将永远珍惜与每一位共事过和结识的同事在一起的时光。OpenAI团队一直是我的知己、良师益友,也是我个人身份的重要组成部分。
我依然清晰地记得2017年时,我对OpenAI的使命是多么着迷。那时,我们这群人梦想着一个看似不可能、宛如科幻的未来。
开始,我在这里研究的是全栈机器人挑战——从深度强化学习算法,到感知,再到固件——目标是教会单只机械手如何解开魔方。整个团队花了整整两年时间,但我们最终成功了。
当OpenAI进入GPT范式,我们开始探索如何将最佳AI模型部署到现实世界时,我建立了第一个「应用研究团队」(Applied Research team)。团队推出了微调API、嵌入API和审核端点的初始版本,为应用安全工作奠定了基础,并为许多早期API客户提供了创新解决方案。
在GPT-4发布后,我被赋予了一项新的使命:重新思考OpenAI安全系统的愿景,并将工作集中在一个掌控完整安全堆栈的团队之下。这是我做过的最困难、最有压力,同时也是最令人兴奋的事情之一。
如今,安全系统团队拥有80多名出色的科学家、工程师、产品经理和政策专家,我为我们团队取得的一切感到无比自豪。我们共同成为每次重大发布的基石——从GPT-4及其视觉和turbo版本,到GPT商店、语音功能和01。
在训练这些模型既强大又负责任方面的工作上,我们树立了新的行业标准。我特别为我们最新的成就——o1-preview模型感到自豪,它是我们迄今为止最安全的模型,在保持其实用性的同时,表现出对「越狱」攻击的卓越抵抗力。
我们取得的成功,十分令人瞩目:
回顾我们取得的成就,我为安全系统团队的每个成员感到无比自豪,我坚信团队将继续蓬勃发展。我由衷地感谢你们,你们是最棒的!
现在,在OpenAI工作了七年之后,我感觉是时候重新出发,探索新的领域了。OpenAI正处于火箭般的轨道上,我衷心祝愿这里的每个人一切顺利。
PS:我的博客仍然活跃,并将继续更新。我可能很快就有更多时间来更频繁地更新博客,或许还能抽出更多时间来编码。
近几个月OpenAI俨然有了一种AI界「黄埔军校」的味道。
首席技术官Mira Murati、首席研究官Bob McGrew、研究副总裁Barret Zoph、著名研究员Andrej Karpathy和联合创始人John Schulman纷纷离职。
其中一些人,包括Leike和Schulman,离职后加入了OpenAI的竞争对手Anthropic,而其他人则去创办了自己的企业。
随着Ilya Sutskever和Jan Leike的离开,以及超级对齐团队的解散。在Sam Altman眼中,OpenAI的安全团队似乎越来越不重要了。
现在,尽管AI安全团队规模可观(据称有超过80名相关的研究人员),但网友们反正是不相信OpenAI还会专心搞模型安全了……
10月,资深政策研究员Miles Brundage离开了OpenAI,并宣布公司正在解散他曾担任顾问的通用人工智能准备团队。
同一天,前OpenAI研究员Suchir Balaji也在专访中透露,表示离开OpenAI是因为他认为该公司的技术对社会带来的危害大于益处。