事件:
博通(NASDAQ:AVGO)发布FY2025Q1季报,第一财季营收149.16亿美元,同比+25%/环比+6%,毛利率为79.1%,同比+3.74pcts /环比+2.2pcts。综合财报及交流会议信息,总结要点如下:
评论:
1、FY25Q1营收毛利率均超出此前预期同环比增长,库存环比有所增长。
FY25Q1营收149.16亿美元,同比+25%/环比+6%,超出此前指引(约146亿美元);毛利率为79.1%,同比+3.74pcts /环比+2.2pcts,高于此前指引,得益于基础设施软件收入的增加和更有利的半导体收入组合。Q1末的库存为19亿美元,较上季度增长8%,以支持未来几个季度的收入,第一季度的库存周转天数为65天。
2、FY25Q1 AI业务营收同比+77%至41亿美元,软件受益VMwar增长明显。
1)半导体部门:
收入为82亿美元,占本季度总收入的55%,同比增长11%,毛利率约为68%,同比上升70个基点,主要受收入结构的推动。由于在前沿AI半导体上的研发投资增加,运营费用同比增长3%,达到8.9亿美元,导致半导体运营利润率为57%。分市场来看,1)人工智能业务,收入为41亿美元,同比增长77%。由于向超大规模数据中心的网络解决方案出货量强劲,超出了对人工智能收入38亿美元的指引;2)非人工智能业务,收入为41亿美元,较上季度下降9%,主要由于无线业务的季节性下滑,在2025年第一季度,非人工智能半导体的复苏仍然缓慢。
2)基础设施软件:
收入为67亿美元,占总收入的45%,同比增长47%,主要基于VMwar的收入增加,基础设施软件的毛利率在本季度为92.5%。
3、FY25Q2预计营收环比持平,AI需求强劲同比将持续高增长。
FY25Q2营收指引约为149亿美元,同比+19%/环比持平,毛利率将比上一季度下降约20个基点,原因是基础设施软件的收入组合和半导体产品组合变化,调整后EBITDA将约占收入的66%。1)半导体部门:收入为84亿美元,同比增长17%。预计第二季度的人工智能收入为44亿美元,同比增长44%。对于非人工智能半导体,预计第二季度收入为40亿美元;2)基础设施软件:收入为65亿美元,同比增长23%。
4、2027年三家超大规模客户SAM达600-900亿美元,本季新客户已有4家。
1)人工智能客户:
三家超大规模客户已进入量产阶段并计划部署百万卡集群,到2027年SAM将达到600-900亿美元,另外有四家新客户在流片阶段。
2)AI XPU:
公司正在专注于封装在3D中的行业首个2纳米AI XPU的流片,已经将现有Tomahawk 5的容量翻倍,以使公司AI客户能够在以太网方面扩展100万XPU。为了使AI集群能够在以太网上扩展到1百万个XPU,公司已经完成了下一代100TB Tomahawk 6交换机的开发,该交换机在1.6TB带宽下运行,将在接下来的几个月内向客户交付样品。
风险提示:客户需求低于预期风险,技术替代风险,宏观经济及政策风险,同行竞争加剧风险。
附
录:Broadcom FY2025Q1业绩说明会纪要
时间:2025年3月7日
Hock E. Tan – President and CEO
Ji Yoo - Head of Investor Relations
Kirsten Spears – CFO and CAO
会议纪要根据公开信息整理如下:
业绩介绍:
2025财年第一季度,总收入创下纪录,达到149亿美元,同比增长25%;合并调整后的EBITDA再次创下纪录,达到101亿美元,同比增长41%。
半导体业务:
第一季度半导体收入为82亿美元,同比增长11%,增长主要得益于人工智能,人工智能收入为41亿美元,同比增长77%。由于向超大规模数据中心的网络解决方案出货量强劲,我们超出了对人工智能收入38亿美元的指导。
我们的超大规模合作伙伴继续在下一代前沿模型上进行积极投资,这确实需要高性能加速器,以及拥有更大集群的AI数据中心。公司在两个方面加大了研发投资,一方面,公司在创造下一代加速器方面推动技术的边界,我们正在进行行业首个两纳米AI XPU封装3.5D的流片,以推动实现10000 teraflops的XPU。
其次,公司计划为超大规模客户扩展500000个加速器的集群,我们已经将现有Tomahawk站点的RAID X容量翻倍。此外,为了使AI集群能够在以太网上扩展到1百万个XPU,我们已经完成了下一代100TB Tomahawk 6交换机的开发,该交换机在1.6TB带宽下运行,将在接下来的几个月内向客户交付样品,这些研发投资与公司三家超大规模客户的路线图非常一致,因为他们各自计划在2027年底之前达到100万个XPU集群。因此,我们重申上个季度所说的,我们预计这三家超大规模客户将在2027财年产生600亿到900亿美元的可服务可寻址市场(SAM)。
除了这三位客户,我们之前还提到过,我们与另外两家超大规模云服务商密切合作,帮助他们创建自己的定制化AI加速器。我们计划在今年完成他们的XPU流片。在与这些超大规模云服务商合作的过程中,尽管他们在软件方面表现出色,但Broadcom在硬件方面是最好的,共同合作是通过大型语言模型进行优化的关键。
因此,自上次财报电话会议以来,两个额外的超大规模客户选择了Broadcom来开发定制加速器,以训练他们的下一代前沿模型,这对我们来说并不意外。因此,即使我们有三个超大规模客户,我们今天也在大规模发货XPU,现在还有四个客户与我们深入合作,创建他们自己的加速器。需要明确的是,这四个客户当然不包括在我们预计的2027年600亿美元到900亿美元的可服务市场(SAM)中。
所以,我们确实看到这里有一个令人兴奋的趋势,新的前沿模型和技术对人工智能系统施加了意想不到的压力。用单一的系统设计点来服务所有模型集群是困难的。因此,很难想象一个通用加速器能够在多个前沿模型之间进行配置和优化。正如我之前提到的,向XPU的趋势是一个多年的旅程。回到2025年,我们看到我们的XPU和网络产品的部署稳步上升。在第一季度,人工智能收入为41亿美元,我们预计第二季度的人工智能收入将增长到44亿美元,同比增长44%。
非人工智能半导体业务:
收入为41亿美元,较上季度下降9%,主要由于无线业务的季节性下滑。总体而言,在2025年第一季度,非人工智能半导体的复苏仍然缓慢。
宽带在2024年第四季度触底,在第一季度显示出两位数的季度复苏,预计在第二季度也将有类似的增长,因为服务提供商和电信公司增加了支出。服务器存储在第一季度环比下降了个位数,但预计在第二季度环比将上升高个位数。同时,企业网络在2025财年的上半年仍然保持平稳,因为客户继续消化渠道库存。尽管无线业务因季节性下降而环比下降,但同比保持平稳。在第二季度,无线业务预计将与去年持平。工业领域的转售在第一季度下降了两位数,预计在第二季度也会下降。
因此,考虑到上述的利弊,我们预计第二季度非人工智能半导体收入将与上一季度持平,尽管我们看到订单同比持续增长。总之,对于第二季度,我们预计总半导体收入将环比增长2%,同比增长17%,达到84亿美元。
基础设施软件部门:
第一季度基础设施软件收入为67亿美元,同比增长47%,环比增长15%,不过这受到从第二季度到第四季度转移到第一季度的交易的影响。现在这是2025年第一季度,这是两个季度都包括VMware的同比比较的第一季度。我们在软件部门看到显著增长,原因有两个,首先,我们正在从主要是永久许可证的模式转变为完全订阅的模式。截至今天,我们已经完成了超过60%。
第二,这些永久许可证主要用于计算虚拟化,也称为vSphere,我们正在向客户推销完整的VCF堆栈,这使整个数据中心能够虚拟化,使客户能够在本地创建自己的私有云环境。截至第一季度末,我们最大的10000名客户中大约70%已采用VCF。随着这些客户使用VCF,我们仍然看到未来增长的进一步机会。
随着大型企业采用人工智能,他们必须在本地数据中心运行其人工智能工作负载,这将包括GPU服务器和传统CPU。正如VCF使用CPU虚拟化这些传统数据中心一样,VCF还将在一个共同的平台上虚拟化GPU,并使企业能够导入人工智能模型以在本地运行自己的数据,这个虚拟化GPU的平台被称为VMware Private AI Foundation。
截至今天,我们与NVIDIA合作,拥有39个VMware Private AI Foundation的企业客户。客户需求受到我们开放生态系统、卓越的负载均衡和自动化能力的推动,这使他们能够智能地在GPU和CPU基础设施之间拉取和运行工作负载,从而大幅降低成本。
软件的第二季度展望,我们预计收入为65亿美元,同比增长23%。因此,我们预计第二季度的合并收入将约为149亿美元,同比增长19%,这将使第二季度的调整后EBITDA约占收入的66%。
FY25Q1财务状况:
营收:
本季度合并收入为149亿美元,同比增长25%。
1)半导体:半导体解决方案部门的收入为82亿美元,占本季度总收入的55%,同比增长11%,毛利率约为68%,同比上升70个基点,主要受收入结构的推动。由于在前沿AI半导体上的研发投资增加,运营费用同比增长3%,达到8.9亿美元,导致半导体运营利润率为57%。
2)基础设施软件:基础设施软件的收入为67亿美元,占总收入的45%,同比增长47%,主要基于VMwar的收入增加。基础设施软件的毛利率在本季度为92.5%,而一年前为88%。本季度运营费用约为11亿美元,基础设施软件的运营利润率为76%。相比之下,去年同期的运营利润率为59%,这一年同比的改善反映了我们对VMware的严格整合以及对部署VCF战略的高度关注。
毛利率:
本季度毛利率为收入的79.1%,高于最初的指引,得益于基础设施软件收入的增加和更有利的半导体收入组合。
营业利润:
合并运营费用为20亿美元,其中14亿美元用于研发。第一季度运营收入为98亿美元,比去年增长44%。
营业利润率:
运营利润率为66%。
EBITDA:
调整后的EBITDA创纪录为101亿美元,为收入的68%,高于66%的指导,该数字不包括1.42亿美元的折旧。
自由现金流:
本季度的自由现金流为60亿美元,占收入的40%。自由现金流占收入的百分比继续受到与VMware收购相关的债务现金利息支出和现金税的影响,这与美国应税收入的组合、174条款重新实施的持续延迟以及企业AMC的影响有关。公司在资本支出上花费了1亿美元。
应收账款:
应收账款天数在第一季度为30天,而一年前为41天。我们在第一季度结束时的库存为19亿美元,较上季度增长8%,以支持未来几个季度的收入。我们在第一季度的库存天数为65天,因为我们继续保持对如何管理整个生态系统中的库存的严格控制。我们在第一季度结束时拥有93亿美元的现金和688亿美元的总本金债务。
现金:
在本季度,我们用新的高级票据、商业票据和手头现金偿还了4.95亿美元的固定利率债务和76亿美元的浮动利率债务,净减少债务11亿美元。经过这些操作,我们588亿美元的固定利率债务的加权平均票息率和到期年限分别为3.8%和7.3年。我们60亿美元的浮动利率债务的加权平均票息率和到期年限分别为5.4%和3.8年,而我们的40亿美元商业票据的平均利率为4.6%。
分红:
在第一季度,我们向股东支付了28亿美元的现金股息,基于每股0.59美元的季度普通股现金股息。我们花费了20亿美元从员工手中回购了870万股AVGO股票,在第二季度,我们预计非GAAP摊薄股本数量将约为49.5亿股。
FY25Q2指引:
营收:
第二季度的指引是合并收入为149亿美元,半导体收入约为84亿美元,同比增长17%。我们预计第二季度的人工智能收入为44亿美元,同比增长44%。对于非人工智能半导体,我们预计第二季度收入为40亿美元。我们预计第二季度基础设施软件收入约为65亿美元,同比增长23%。预计第二季度调整后的EBITDA约为66%。
毛利率:
预计第二季度合并毛利率将比上一季度下降约20个基点,原因是基础设施软件的收入组合和半导体产品组合。公司将在第二季度增加对前沿人工智能的研发投资,因此,我们预计调整后EBITDA将约为66%。
税率:
预计2025财年第二季度的非GAAP税率将约为14%。
Q&A
Q:公司提到还有四个客户即将上线,能多谈谈所看到的趋势吗?这些客户中有哪个能和目前的三个客户一样大吗?这对定制硅的整体趋势以及对长期业务的乐观和潜力有什么启示?
A:这四个还不是我们所定义的客户,正如我一直所说,在开发和创建XPU时,老实说,我们并不是这些XPU的创造者,我们使每一个超大规模的合作伙伴能够创建芯片,并创建计算系统,包括模型、软件模型,以及计算引擎、XPU和将多个XPU作为一个整体连接在一起的网络,以训练大型前沿模型。
我们创建的硬件仍然必须与那些合作伙伴的软件模型和算法一起工作,在它完全可部署和可扩展之前。正如我所说的,开发第一款芯片并不是一蹴而就的,通常需要一年半的时间,这已经是非常加速的进程。考虑到我们现在基本上有一个有效的框架和方法论,我们可以进一步加速,这个方法对三个客户有效,没有理由不适用于第四个客户,但我们仍然需要这四个合作伙伴来创建和开发软件,而这不是我们所做的,以使其正常运作,这四个合作伙伴没有理由不创造出与前面三个客户相当的需求,但可能会晚一些,这是一个过程,他们开始得晚,所以他们可能会晚一些达到目标。
Q:上次财报中公司提到下半年将会有强劲的增长,这主要是由于新的3纳米AI加速程序的逐步推进,能否定性或定量地描述一下下半年的情况,相对于团队在上半年所交付的情况?与大约90天前的预期相比,这一情况是否发生了有利或不利的变化?自上次财报以来发生了很多事情,有像DeepSeek这样的动态,以及对AI模型效率的关注,但另一方面,公司的云计算和超大规模客户的资本支出前景也很强劲。
A:为什么我们在第一季度的业绩超出预期,并且在第二季度似乎也很有希望,部分原因是网络出货量的改善,将这些XPU和AI加速器,甚至在某些情况下,将GPU聚集在一起,供超大规模数据中心使用,这很好,部分原因是,我们认为在2025财年有一些出货量的提前和加速。
Q:从关于关税和DeepSeek的新闻标题来看,似乎可能会出现一些干扰,一些客户和其他互补供应商似乎感到有些无能为力,可能在做出艰难决策时遇到困难,这些往往是伟大公司崭露头角、变得比过去更大更好的时刻。在过去十多年里,你们以惊人的方式发展了这家公司,现在你们做得很好,尤其是在人工智能领域,但公司是否看到这些动态带来的某种颠覆,除了在人工智能领域增加这些客户之外,相信还有其他很棒的事情在发生,但是否应该期待因这些原因而导致博通会有更大的变化?
A:关税的威胁和噪音,尤其是对芯片的关税,尚未实现,我们也不知道它将如何构建,在半导体领域,生成式人工智能比以往任何时候都更感受到它确实在加速半导体技术的发展,包括工艺和封装,以及设计朝着更高性能的加速器和网络功能。
我们认为,创新和这些升级每个月都会发生,尤其是在XPUs方面,我们正在努力优化我们合作伙伴、客户以及超大规模合作伙伴的前沿模型。我们参与其中并尝试优化。可以从简单的角度来看一个加速器,从高层次来看它的性能,不仅仅是一个单一的指标,即计算能力,这也与一个事实有关,这是一个分布式计算问题,这不仅仅是单个XPU或GPU的计算能力,还与它连接到下一个相邻的XPU或GPU的网络带宽有关,所以必须与此进行平衡,然后决定是进行训练,还是进行训练后的预填充微调,再来就是要平衡多少内存。
因此可以承受多少延迟,这就是内存带宽,至少要考虑四个变量,如果包括内存带宽而不仅仅是内存容量,可能甚至有五个变量,当直接进行推理时,我们有所有这些变量可以调整,我们尝试对其进行优化。
所以我们现在看到的最大干扰就是在努力创造和推动生成式人工智能的边界,试图创建最佳的硬件基础设施来运行它。除此之外,还有其他因素也在发挥作用,因为正如我所指出的,人工智能不仅推动企业的硬件,还影响他们架构数据中心的方式,数据需求,保持数据私密和可控变得非常重要。
工作负载向公共云的推动可能会稍作停顿,因为大型企业特别需要意识到,如果想运行AI工作负载,可能会非常认真地考虑在本地运行它们,突然间你会推动自己去升级自己的数据中心,以便管理自己的数据在本地运行,这也推动了一个趋势,我们在过去12个月中已经看到,这是真的,尤其是推动方向的企业正在迅速认识到他们如何以及在哪里运行他们的AI工作负载。因此,这些是我们今天看到的趋势,很多都来自AI,很多都来自对云和数据主权的敏感规则。至于关税,我认为现在还为时尚早,我们可能需要再等三到六个月,才能更好地了解该如何前进。
Q:关于XPU,从上个季度的四个新合作项目到今天宣布的两个新客户,谈谈从design win到部署的过程,公司是如何判断的?因为关于大量design win的确存在一些争论,但实际上部署要么根本没有发生,要么数量从来没有达到最初承诺的水平,公司如何看待这种转化率?它的范围是否很广,或者能否帮助我们理解它是如何运作的?
A:我们看待design win的方式可能与许多同行的看法非常不同。首先,我们相信design win是当我们知道我们的产品已经大规模生产,并且实际上已经在生产中部署时,因此,这需要很长的前期时间,因为从设计完成到产品交付,通常需要一年时间,从产品交到我们合作伙伴手中到进入大规模生产,按照我们的经验,这需要六个月到一年的时间。其次,生产和部署5000个XPU,这不算真正的生产。
因此,我们在选择合作伙伴时也限制自己,只选择那些真正需要大量资源的人。从我们的角度来看,您现在需要大量资源,主要用于训练、训练大型语言模型、前沿模型,并保持持续的发展轨迹。因此,我们限制了自己可以接触的客户数量,或者说潜在客户的数量,我们倾向于在一开始就非常挑剔地选择合作对象。
所以当我们说design win时,它实际上是大规模的,这不是一种在六个月内开始然后结束,或者一年后再次结束的事情。基本上,这是客户的选择,这就是我们在过去15年中一般运营我们的ASIC业务的方式,我们挑选客户,因为我们了解这些客户,并且与这些客户制定多年的路线图,因为我们知道这些客户是可持续的。
Q:关于公司目前有大量订单的三个客户,是否对即将在五月实施的一些新法规或人工智能扩散规则对这些design win或出货产生影响感到担忧?听起来公司认为这三者目前仍然正常?
A: 在这个地缘政治紧张和各国政府采取相当激烈行动的时代,大家心中总会有一些担忧,但我们没有任何担忧。
Q:每当公司描述人工智能机会时,总是强调训练工作负载,但人们的看法是,人工智能市场可能会被推理工作负载主导,特别是随着这些新的推理模型的出现。那么,如果组合更多地向推理转移,公司的机会和市场份额会发生什么变化?这是否会为公司创造一个比600亿到900亿美元更大的TAM?是否保持不变,但产品组合有所不同,还是说一个更偏向推理的市场更有利于GPU而不是XPU?
A:公司的XPU也专注于推理作为一个独立的产品线,这就是为什么我可以说这些芯片的架构与训练芯片的架构非常不同,这两者的结合加起来就是600亿美元到900亿美元。所以,这是两者的结合,但迄今为止来自训练的资金占更大部分,而不是推理。
Q:听说几乎所有超过10万的大集群都将转向以太网,公司能否帮助我们理解客户选择的重要性,选择一个拥有最佳交换ASIC的公司,和一个可能在计算方面有优势的公司之间,能谈谈客户在考虑什么吗?他们在选择NIC卡时希望关注的最终要点是什么?
A:现在在超大规模数据中心的情况下,非常依赖性能,而你提到的连接、扩展这些AI加速器,无论是XPU还是GPU,在超大规模数据中心中都是如此。在我们与之接触的大多数超大规模数据中心中,连接这些集群时,他们非常依赖性能。如果你在竞赛中真正想要从你的硬件中获得最佳性能,以便训练和继续训练你的前沿模型,这比其他任何事情都重要。因此,他们首先追求的是经过验证的,这是一块经过验证的硬件。在我们的案例中,这是一个经过验证的系统,使其能够正常工作。
在这种情况下,我们往往有很大的优势,交换和路由至少是我们过去10年的专长,而你提到的AI只是让我们的工程师更有兴趣去研究这个,基本上,这都是基于经过验证的技术和经验,推动从800千兆位每秒的带宽到1.6,再到3.2,这正是我们不断加大投资步伐的原因,以推出我们的产品,我们将Tomahawk 5 RAID X翻倍,以应对一个超大规模客户,因为他们希望高RAID X来创建更大的集群,同时运行带宽较小,但这并没有阻止我们向下一代Tomahawk 6迈进。
我们现在甚至在计划Tomahawk 7和8,并且我们正在加快开发速度,这主要是为了那几位客户。因此,我们正在为非常少的客户进行大量投资,希望能够服务于非常大的可用市场,这甚至不是我们正在下的大批订单。
Q:过去公司提到XPU单元从去年的大约200万增长到2027年、2028年大约700万,这四个新客户是否会增加到700万单元的数字?之前提到过到那时的平均销售价格是2万美元,所以前三个客户显然是那700万单元的一个子集,那么这四个新合作是否会推动这个700万的数字更高,还是仅仅是填补以达到700万?
A:不是的,我们所谈论的市场,仅限于我们今天拥有的三位客户,其他四位,我们称之为参与合作伙伴,我们还不认为他们是客户,因此不在可服务的市场中。
Q:关于最佳硬件和超大规模软件优化,公司现在如何将产品组合扩展到六个超大规模的前沿模型,但同时,在这六个模型中,如何真正实现差异化。显然,所有这些参与者的目标都是每单位资本支出、每瓦功耗能实现每秒百亿亿次浮点运算的性能,公司在这方面给予他们的帮助程度有多大呢?而且,在他们想要实现差异化、不想与公司分享他们正在做的某些工作时,所谓的“信息隔离墙”大概会在哪些方面体现呢?
A:我们只提供非常基本的半导体基础技术,以使这些人能够使用我们所拥有的技术,并将其优化为与这些模型相关的特定模型和算法,这就是我们所做的一切。因此,这是一种我们为每个人做的很多优化,我们可能有五个自由度,我们会对其进行调整。
因此,即使有五个自由度,我们在那时能做的也有限,基本上我们如何优化这一切都与合作伙伴告诉我们他们希望我们如何做有关。因此,我们对此也只有有限的了解,但我们现在所做的就是XPU模型,纯粹的优化转化为性能,但也包括功耗,这一点非常重要。