专栏名称: 调研纪要
机构调研、电话会议
目录
相关文章推荐
成都本地宝  ·  中国将与萨摩亚互免签证! ·  昨天  
半月谈  ·  一飞机在菲律宾南部坠毁 ·  19 小时前  
成都发布  ·  全文发布!2025年四川省政府工作报告 ·  昨天  
成都日报  ·  95.10亿!刷新双记录!成都全国第三 ·  2 天前  
成都日报  ·  95.10亿!刷新双记录!成都全国第三 ·  2 天前  
51好读  ›  专栏  ›  调研纪要

郭明錤:DeepSeek加速两个AI产业新趋势

调研纪要  · 公众号  ·  · 2025-01-30 21:44

正文

DeepSeek-R1发布后,有以下两个重要的AI产业新趋势值得关注。 即便没有DeepSeek-R1,这两个趋势最终也会明显显现,但DeepSeek-R1的出现加速了它们的发生。
1. 在缩放定律(Scaling law)边际效益放缓时,AI算力仍可通过优化训练方式持续增长,并有助于挖掘新应用。
2. API/Token价格显著下降,有利于AI软件/服务以及设备端AI,加速AI应用多元化。


趋势一: Scaling law 边际效益放缓时,AI算力仍可通过优化训练方式持续增长,并有助于挖掘新应用
1. 在过去1 - 2年,投资者对AI服务器供应链的投资逻辑主要基于在 Scaling law 成立的情况下,AI服务器出货量能够持续增长。然而, Scaling law 的边际效益正在逐渐递减,这使得市场更加关注DeepSeek如何通过 Scaling law 以外的方式显著提升模型效益。
2. 最常被引用的Chinchilla Scaling law 指出,AI模型性能由模型参数数量(N)、训练数据量(D)与运算能力(C)三者决定,最理想的情况是N、D与C同时增加。
3. Scaling law 对提升模型性能边际效益放缓的原因:1)人类创作的文本数据(D)几乎已耗尽;2)在运算能力(C)没有大幅提升且训练数据量(D)耗尽的情况下,仅提升模型参数数量(N)对模型效能并无帮助;3)运算能力(C)短期内不易显著提升(例如Blackwell系统尚未量产、电力供应受限等原因)。
4. 从产业研究的角度来看,DeepSeek-R1值得关注的地方在于,该大语言模型(LLM)通过优化训练方式而非 Scaling law 显著提升了模型效益,这可以通过检视和测试其开源成果来验证。
5. Scaling law 的边际效益终有递减的时候,此时通过优化训练方式来提升模型效益,有助于持续提升AI基础设施的算力并挖掘新应用。对于AI产业的长期发展而言,两者缺一不可。


趋势二:API/Token价格显著下降,有利于AI软件/服务以及设备端AI,加速AI应用多元化
1. 目前,从生成式AI趋势中获利的方式,主要还是靠卖铲子(提供基础工具和服务)和降低成本,而非创造新业务或提升既有业务的附加值。
2. DeepSeek-R1采取激进的定价策略,可免费使用,且其API/token定价最低不到OpenAI-o1的1/100,这种竞争压力可能会带动AI使用成本下降。中国AI产业市场竞争激烈,预计会看到其他中国厂商推出跑分优异且定价更激进的大语言模型。
3. 近期,AI供应链相关股票大幅调整,主要原因是投资者因 Scaling law 边际效益放缓,调整了对AI服务器出货量的预期,产生负面影响,而非担忧大语言模型服务供应商和云服务提供商(CSP)能否通过AI获利,因为大多数投资者仍愿意耐心等待获利时刻的到来。
4. 由于API/Token价格下降和训练方法优化,AI软件/服务以及设备端AI的成本降低,这有助于增加AI算力需求,并能减轻投资者对AI投资能否获利的疑虑。
5. AI使用量肯定会因价格下降而增加,但增加的幅度能否抵消价格下滑的幅度仍有待观察。此外,AI使用量的提升有助于创造可获利的商业模式,但这也并非绝对。不过,鉴于投资者普遍仍愿意耐心等待获利出现,目前可以忽略上述顾虑。


结论:
1. Scaling law 是一种经验法则,合理降低预期并理性看待,反而有利于长期投资趋势。芯片升级(C)、改善电力供应限制(C)以及在训练中引入更多多模态数据(D)等,都有利于未来再次提升 Scaling law 的边际效益。
2. 只有大量部署者才会遇到 Scaling law 边际效应放缓的情况,这也再次验证了英伟达(Nvidia)的领先地位。等到英伟达方案的 Scaling law






请到「今天看啥」查看全文