专栏名称: 纪要研报中心
奉行价值投机,研究创造价值
目录
相关文章推荐
51好读  ›  专栏  ›  纪要研报中心

柴发,风来势起!

纪要研报中心  · 公众号  ·  · 2025-02-24 20:34

正文

请到「今天看啥」查看全文


更多报告PDF与音频文件,星球优惠加微信: Y1206859索取


重视柴发,风来势起

大厂持续加码需求

参考海外大厂AI加速布局后,资本开支逐季上升,叠加合作苹果等我们认为阿里25年资本开支或实现1500亿+,归来加码!

仅考虑字节阿里增加资本开支,25年柴发环节已然出现1500台缺口缺口或将伴随腾讯等加入继续扩大而带动价格上升&国产导入双加速!

是开始而不是结束

目前大厂扫货顺序依次为【外资原装机组>OEM机组(外资发动机)>国产发动机组】

交易涨价(24H2~25H1):外资原装+外资OEM短缺后,机组开始涨价,此时锁定发动机价格的OEM厂商最为受益,订单+业绩最先兑现;此时国产机组尚处于0-1验证阶段。

国产导入(25Q2~Q3):配备外资发动机的发电机组产能将近,后入局大厂加速导入国产发动机机组,此时国产发电机组厂商最为受益,大厂订单迎来1-10的机会。

国产替代(25Q4~):经过接近一年批量国产机台使用,国产机组得到充分认可,大厂预计给予性价比更高的国产机组方案以更大份额,国产机组迎来10-100的放量订单。

迎接aIDC超级周期

阿里云疯狂投资是行业风向标

1、阿里云24自然年Q4的capex313.7亿元,环比大增80%,公司预期未来三年集团在云和AI基础设施的投入将超过过去10年的总和,合计近4000亿元

2、市场在细拆阿里capex细节,但需注意,考虑租赁的折算硬件需求更大;公司管理层分析,云计算会是AI产业未来最重要的基础设施,类比现在的电网

3、阿里云疯狂的资本开支不是独立公司事件,而是响亮的行业风向标,国内互联网平台公司都需要做出竞争性的应对,围绕ai的投入竞赛刚开始,aIDC基础设施的大周期也刚开始

上半场硬件确定性最高

1、国内众多平台纷纷开始导入deep等模型,近期产业链学习,普遍反馈硬件需求激增,“技术进步促进应用发展,进而拉动硬件需求”的循环正在发生。

2、目前先进制成等环节卡脖子问题短期难以有效破解,核心硬件的景气及持续性会很强;而配套aIDC基础设施发展先行,确定性高,政策较上一轮发展期也更友好。

3、由于国内互联网平台22-23年资本开支大幅度收缩,aIDC供应链盈利处于较低水平,未来国内aIDC产业将会量、盈利齐升

4、另,我们注意到,柴油发动机,年后国内市场已经开始了新一轮提价,国产发动机会提速

结论与建议

【国产】潍柴 重机( 已导入A客户)+玉柴国际(最便宜)

【OEM】泰豪科技(叠加主业反转)+科泰电源

泰豪科技:传统主业业绩反转,数据中心受益于进口发动机紧缺+国产发动机在大厂导入,低估值

1、24年交付外资(MTU+海外)发动机的机组300+台,预期25年继续增加50-100台产能,目前进口发动机产能紧缺,后续有涨价预期;内资发动机玉柴在扩产,且在字节租赁端有应用,公司相对受益

2、数据中心客户25年新增了多家大厂,且后续看在进口机组紧缺情况下,国产化发动机趋势更明显

3、传统主业军工业务今年以来景气上行,业绩反转;应急装备等受益于专项国债,进入3年景气上行期。

科泰电源:OEM厂商数据中心业务占比高,受益于下游近期抬升

1、2MW数据中心和通信占比60%,半导体等领域也有应用,当前进口机组价值量200多万。

2、OEM厂商具备核心竞争力,集成能力很重要,拥有项目经验和Know-How,且后市场服务和品牌效应很重要。

3、目前国内运营商发动机国产化率30-40%,互联网厂商也在做国产验证,后续有望放量。

另外今天是 Deepseek 连续 5 天发布开源成果第一天

推出 FlashMLA:英伟达 H800 GPU 推理性能提升 2 到 3 倍!

内存带宽提升 2-3 倍(3000 GB/s vs. 1000-1500 GB/s)

计算性能提升约 2 倍(580 TFLOPS vs. 200-300 TFLOPS)

推理速度提升 30%-50%,尤其在长序列和大规模推理场景中表现卓越!

显存利用率提升 20%-30%,资源利用更高效!

背景分析:

在大模型(比如 ChatGPT)进行推理(即生成文本)时,每一步计算都会涉及大量注意力计算,计算速度和显存占用是影响推理效率的关键因素。

传统方法计算效率低,浪费 GPU 计算资源。计算过程中显存占用过高,导致在相同硬件上能处理的序列长度有限。大部分 Transformer 计算库不适用于变长序列。

FlashMLA 的突破:

FlashMLA 针对这些问题进行了优化,通过 Paged KV 缓存 + 高效 MLA 计算,大幅提升推理速度并减少显存占用。

FlashMLA 不仅优化了计算效率,还解决了传统方法在变长序列上的不足,为大模型推理带来了质的飞跃!







加入组织,获取每日100+最新机构调研




纪要研究中心,奉行价值投机策略,每天更新80+最新企业纪要和行业报告,共同挖掘具有100%增长潜力的标



1、人工智能,锂电,光伏,风电、半导体,医美 ,医药 ,大消费等行业公司最新纪要,


2、微信会员群 是基本面爱好者的聚集地,也是缩小你与机构信息差的根据地

加入星球,有更多投资策略、教程和工具,等着你。


海报.png









请到「今天看啥」查看全文