2024更多一手调研纪要和研报数据,点击上面图片小程序
DeepSeek
表现出的效率超出了所有人的预期,因此令投资者
质疑持续的
AI
投资热潮的必要性。人工智能的故事正在发生转
变⸺更好的投资回报率在哪里?半导体是第一阶段的赢家,但可能不是这一新范式的最终赢家。
发生了什么变化?
自上周以来,大型科技公司一直在全力推广
DeepSeek
,将其迅
速整合到企业
AI
领域,所有美国超大规模数据中心都在采用这些进步。
DeepSeek
现可在
Meta
、
Azure
和
AWS
的云计算平台上使用。现在的关键问题是,采用率的提
高是否会导致资本支出的减少。
反应过度还是合理⋯⋯?
半导体股票往往会在资本支出上升时重新估值,并在资
本支出趋于平缓时下跌(即半导体周期)。
DeepSeek
的故事似乎更倾向于后者,
挑战了人工智能需要大量资本投资才能实现最佳业绩的假设。市场的潜在担忧是,企业是否会犹豫投资最新的人工智能硬件,从而对利润率和盈利构成风险。
反驳的观点是,即使在传统
GPU
上运行的高效模型越来越多,这些
GPU
仍然是必要的,而最终,更多的需求也意味着更多的
GPU
。
因为人工智能的护城河可能没有那么宽。
认为要在人工智能革命中占主导地
位并从中获利就必须使用最昂贵和最强大的芯片的观点现在正受到质疑。如果开
源大语言模型
(LLM)
能够用最少的资源开发前沿模型,就会削弱当前
AI
半导体估值
中预测的巨大需求。越来越高效的模型可能会进一步商品化人工智能,并给资本支出要求带来压力。人工智能赋能者面临的关键问题是确定人工智能革命在低成本环境下,能产生多少实际价值。
基于人工智能的产品现在更加重要。
日益低成本的
AI
市场将大幅扩张。但与此同时,它
的盈利能力也可能会下降。人工智能价值链的很大一部分可能会商品化。这不利于一些公司的估值⸺明显面临风险的领域是提供人工智能架构的公司。虽然我们可以争
论
DeepSeek
的“真正”的实际
GPU
成本,但不可否认的因素是它的产出。它改变了游戏规则,支持在其上构建的人工智能应用程序和代理。利润可能会向
AI
部署者(例如软件和超大规模云服务商)转移,而最大的受益者是
AI
的消费者。
一个可行的、负担得起的竞争对手。
我们重点关注
DeepSeek
的开源研究
论文(
https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
)
以及如果市场逐步采纳这些变革,将会如何影响科技行业。此时,
DeepSeek
仅使用
20000
张还是
50000
张英伟达
GPU
可能并不重要,因为与大多数其他前沿模型相比,最大的创新在于训练
/
运行这些模型的成本。简单来说,
DeepSeek
有能力使用前沿模型作为自己模型
的“老师”,并将模型提炼成更小的模型,同时保持几乎所有的性能不变。该模型更小,并且通过其他一些创新,大大降低了培训和运行模型的成本。
市场调整是否合理?
AI
半导体股票的定价反映了完美的设定,过于拥挤,一旦有任何关
于近期增长可持续性的消息,就更容易受到大幅抛售的影响。但真正的问题
是,
DeepSeek
是否会导致对
AI
投资支出的更严格思考,以及
AI
半导体收入数字因超大规
模企业需要重新评估数十亿美元订单而不得不下降的风险。到目前为止,上周的财报似乎没有对支出产生太大影响,但我们仍处于评估的早期阶段,即人工智能资本支出是否
会放缓和
/
或是否有利于以更低的成本使人工智能更容易获得。这些模型效率提升决策可能会为作为“铁镐和铁铲”的
AI
赋能者的下游需求创造一个短暂的空缺。
谁受益,谁落空?
我们了解提供“铁镐和铁锹”和数据中心基础设施的科技股中的赢家
和输家,但我们不太关注这些技术在企业内部的更广泛应用和影响。过去的范式转变为我们提供了重要的经验教训,告诉我们如何从变革性创新中识别长期赢家。从希望到热度的转变是不稳定的,尽管人工智能的新催化剂令人兴奋,但随着时间的推移,技术的盈利货币化之路往往会发生变化。我们不再处于人工智能革命的早期阶段,高投入并不一定保证高利润。在互联网基础设施建设阶段,电信和有线电视提供商向网络基础设施
投入了数十亿美元。然而,像亚马逊这样的科技巨头(因为每个
token
提供者每秒的
EC2
和
S3
费用低廉)和创造新商业模式的最伟大的公司抓住了大部分的上涨空间。自
2022
年
11
月
ChatGPT
横空出世以来,过去两年的市场表现一直集中在全球范围内的极少数股票(赋能股、基础设施股),似乎显示着投资者已对
AI
主题将如何发展了然于
心。市场似乎高度认可这样的假设:这些公司将成为人工智能革命的长期领导者,实现最大的盈利增长。但是,虽然我们可能正处于向效率转变的重大技术范式转变的风口浪尖,但人工智能的赢家可能不是第一批利用新技术变现的公司,专注于短期盈利能力可能会产生误导。
受益的是
AI
的用户,在
AI
上投入资金以增加竞争护城河、提高生产力或创造增长机会的
公司有望从更便宜的推理资本支出中受益。这些公司包括云提供商等⸺如果能够实现有利的价格点,这些“平台”将获利;消费大量人工智能的公司,如社交媒体;以及位
于应用层的公司,支持人工智能工作负载,如软件公司在顶层提供的服务的
AI
模型。面
临风险的是“铁镐和铁铲”供应商,这些供应商的估值已经大幅重估,并且由于高估值
而面临更高的盈利实现门槛。随
DeepSeek
出现的抛售幅度较小,非
AI
科技股在科技股中
相对表现出色。因此,通过更大程度的多元化对投资组合进行重新定位、减仓并降低
对
AI
赋能股的集中度风险似乎非常明智。
自上周以来发生了什么变化?
大型科技公司正在全力推广
DeepSeek
。
DeepSeek
正在迅速扩展到
AI
的企业端,客户希
望在这些领域采用
DeepSeek
的模型。这也正在改变各公司对人工智能许可和迄今为止支付的溢价的看法。现在的问题是,即将推出的
OpenAI o3
等新模型是否能够提供足够大
的进步,面对希望通过使用开源模型来以更低成本获得更理想结果的客户,能继续获得
他们认可并证明其溢价。对于持怀疑态度的人来说,
DeepSeek
在应用程序下载方面仍然领先,但自上周以来,许多硅谷公司正在下载和部署模型权重,
Perplexity
就是一个例
子,大型科技公司包括:
•
扎克伯格在上周的
Meta
业绩会表示 ,他们将把这些技术进展应用到自己系统
中。
•
亚马逊云科技宣布,
DeepSeek
的
R1
模型已上线
Amazon
Bedrock
和
Amazon
SageMaker AI
平台。
•
甚至
微软
Azure
亦将
DeepSeek R1
集成到其云计算平台中,以供客户使用。
•
苹果
CEO
库克还在财报电话会议上提到了
DeepSeek
模型如何代表创新和提高效
率。
DeepSeek
是开源
/
开放权重模型,以更少的资源提供高性能,并且可以尽可能以低廉的
成本运行大语言模型。如果在本地运行,则不存在与数据相关的安全风险。它是开源的,因此具有适应性和可扩展性,从而可以轻松集成和构建。
潜在的赢家⸺重新洗牌
开源大语言模型的重大胜利。
DeepSeek
可能已经为更快的创新和更新模型的开源社区打
开了闸门(阿里巴巴宣布了其下一个开源大语言模型通义千问
2.5 Max
就是一个例子,字节跳动可能很快就会推出另一个更好的大语言模型),以及始于
Meta
的开源模型
Llama
的一场更快节奏的
AI
竞赛。闭源大模型也可以从中受益,并采用这些新方法,在他们的未来模型中实现更高的效率,并具有品牌价值,比如
OpenAI
在消费者和企业方面都取得了重大进展,而其他一些公司,包括亚马逊
AWS
所投资的
Anthropic
也在企业应用方面取得良好进展。然而,这些模型不再在采用率中领先,因为
DeepSeek
的应用程序目前是过去一周美国、英国和许多其他国家
iOS
应用商店下载最多的应用程序。这种情况是否能在未来几周内持续还有待观察,但使用
DeepSeek
应用程序界面的好处是显而易见的,它
可以提供更好的推理过程,思路清晰,以及经常与成本一起提及。总而言之,拥有更多的计算能力仍然会带来更好的人工智能模型,但大语言模型正在通过开源迅速商品化,而人工智能的使用变得更加便宜,并且在继续以相同的速度增长的基础上,对未来资本支出的需求降低。
半导体 (
-
)。
主要风险在于,认为企业并不需要极其庞大的计算资源,并重新考虑人
工智能支出的效率提升可能会导致供应链需求出现重大的短暂空缺。长期来看,
受
DeepSeek
启发的创新应该会以较低的成本推动更新前沿版本的
LLM
和能力更强的模型,而短期内,不断增长的
AI
采用可能会受到基础设施、能源(微软首席执行官
SatyaNadella
表示“⋯⋯我们并无芯片供应受限⋯⋯”
BG2
播客,
2024
年
12
月
13
日)和计算供应链挑战(
GB200
交付延迟)。最终,随着低成本的采用加速以及向由用户使用驱动的推理用例转变,对
AI
芯片的需求将不断增加。但这会带来一个时间滞后,即“杰文斯悖论”的概念需要多年才能实现,而在此之前会出现价格
/
利润率缩窄。
•
推理市场的计算护城河比训练市场的护城河低得多。
这里的主要风险在于长期可
持续利润率⸺随着市场迅速转向推理,所需芯片的数量将大幅增加,但这些芯
片的利润率将低得多。推理市场的动态是竞争加剧,尖端计算(
GPU
和
HBM
)减
少,公司将不得不适应这种利润率状况。
•
风险可能在于重新考虑资本配置
,短期内(目前尚不清楚,尽管微软选择不跟随
最近的“星际之门”
(Stargate
)人工智能支出热潮)可能会遇到需求不匹配的情
况,即大语言模型提供者希望利用现有基础设施实现新的模型改进,但今年对高性能芯片的需求下降,因为它们在短期内受到电力限制且拥有足够计算能力。超
大规模客户也可能转向更先进的新型芯片(
GB300
)。
对股票的影响。
当今
AI
公司必须支付高昂的计算成本才能运行这些模型,这种模式正面
临挑战。降低智能成本的突破对技术具有重大影响,之前过度投资的风险可能导致一段
时间的消化。从更大的角度来看,
AI
公司将寻求采取变革来改进
AI
模型,降低
AI
成本并加快他们的进程,而在我们看来,
DeepSeek
只是一个开始。但是,只要新的前沿模型保
持扩展并且不会遇到瓶颈,拥有更多的算力仍将继续成为新的大语言模型增长的驱动力。
•
向推理的过渡对台积电是利好的,因为它仍然是唯一的先进制程工艺节点代工
厂,并受益于丰富的推理领域。
•
对于
HBM
内存,需求或内容较少,因为优化和减少工作负载所需的内存量
是
DeepSeek
模型的关键根本性改进。
•
然而,在大宗商品
DRAM
需求方面,存在一定的积极因素,因为
DeepSeek
模型
的非前沿版本可以在智能手机或个人电脑中本地运行,具有更小、更强大的蒸馏模型,消费者和公司现在就可以使用它们并受益。这可能导致对硬件升级的需求
不断增加,从而增加对标准型内存
(commodity memory)
的需求。