专栏名称: 共识粉碎机
寻找与共识的不同
目录
相关文章推荐
简单心理  ·  当闺蜜成为母亲:生育如何改变女性友谊 ·  4 小时前  
简单心理  ·  关于心理咨询,你可能会有的7个疑问 ·  昨天  
武志红  ·  4种认知,帮你建立稳定的内核 ·  昨天  
陈忻儿童心理  ·  自我是一个需要亲手搭建、不断生长的存在 ·  昨天  
51好读  ›  专栏  ›  共识粉碎机

Ilya说scaling law结束了?其实Ilya想表达的是,到底我们应该scale什么?

共识粉碎机  · 公众号  ·  · 2024-12-14 09:54

正文

卖不完了!!!快帮我们一下!
在Neurips 2024的test of time award上,Ilya给了一个talk,通篇强调的就是 pre training的scaling law结束了,现在需要新的scaling了。 Scale.ai的CEO也和商量好的一样发了一个twitter,也是强调数据没了,scale不下去了

Ilya和Alex的惊悚发言有些屁股决定脑袋, 如果还是pretraining继续dominate,他的新公司肯定就没机会了 。Alex主要是卖数据的,新的数据是他核心的商业模式,自然也要宣传

不过大家可能没有听Ilya整个演讲。其实Ilya想表达的是, 到底我们应该scale什么? 比如下图,他类比了不同物种的体重(参数量)和大脑质量(智能)的对比,人科是斜率最大的。所以, 我们现在应该要找到斜率最大(效率最高)的scale方法。

目前看起来最有希望的就是o1代表的强化学习道路。 我们从7月份开始路演草莓和强化学习,一直在强调这个新的scaling law的重要性 。简单来说,就是免费且没有太大隐私问题的互联网数据用完了,剩下的都是很贵的数据了(有版权、靠人标)。 那么,用强化学习来生成数据,再结合大模型的泛化能力,可能是更好的一条路(今天Ilya在Q&A也强调了泛化能力的重要性)。我们和头部researchers们密集沟通下来也是这个感觉。

新的scaling law会带来新的机会。尤其是算力(互联?cpo?asic?)和应用。目前看起来,coding已经是明确的场景,cursor devin的arr增长都非常快,cursor的arr可能已经突破1亿美金,devin的收费也达到500美金一个月,有可能会进一步提升付费天花板。Anthropic的coding相关api收入,几个月增长了10倍。强化学习+coding,随之带来的,可能是2025年agent的大爆发。我们也在这些领域持续进行密集研究,寻找Alpha。




欢迎加入共识粉碎机活动群,我们会定期发布内容和活动



我们正在发售两篇报告,其内容是:

大模型进展如何改变光通信格局,以及CPO和OIO影响

AVGO与ASIC技术趋势演变

尚有数篇报告正在调研中,其内容是:

网络安全软件公司与Agent

我们已经发售了十三篇报告:

算力需求场景测算







请到「今天看啥」查看全文