专栏名称: 纳指弹幕组
多聊市场的想法,少聊自己的想法.
目录
相关文章推荐
山西省人民政府  ·  山西这些集体、个人拟获全国表彰 ·  2 天前  
山西省人民政府  ·  今年山西第一批向民间资本推介项目名单公布 ·  3 天前  
山西省人民政府  ·  今年山西第一批向民间资本推介项目名单公布 ·  3 天前  
51好读  ›  专栏  ›  纳指弹幕组

特刊: DeepSeek外资观点合集 - 读这一篇就够 (25/02/02)

纳指弹幕组  · 公众号  ·  · 2025-02-02 21:12

正文

原则: 1) 本公众号为私人所有, 与任何机构和组织无关; 2) 本公众号仅归纳TMT领域外资研报观点, 严格不讨 论任何关于A股的投资观点; 2) 本公众号仅对外资研报内容进行归纳摘要, 尊重原文内容版权, 不会直接展示原文; 4) 本人无精力做知识星球, 不代找研报; 5) 做这个公众号的目的仅仅是读书学习笔记, 归个档, 仅此而已.


外资研报归纳请向下滑

摘要


25/02/02 周日 ( 25年特刊01 )

本期核心内容包括:

  • JP摩根, 大摩, Jefferies, 高盛的研报观点

  • UBS的线上分析师Call录音归纳

  • JP摩根/大摩的专家观点归纳

  • JP摩根和高盛交易台点评

  • 几个Semi**Analysis里关于DS算力成本的图表



DeepSeek: 成本效率的讨论和几个领域的影响


JP摩根 (S.Azzarello, 25/01/31)


成本效率

围绕AI行业支出可持续性的讨论因最近的DeepSeek发展而引发,主要源于新模型的出现。这些模型在性能上可与OpenAI相媲美,但训练和推理成本大幅降低。DeepSeek V3模型的训练成本约为560万美元,远低于领先的大型基础模型。相比之下,OpenAI首席执行官Sam Altman透露,ChatGPT-4在2023年的训练成本超过1亿美元,而最新模型的成本可能更高。

关于成本效率的进展,亚太科技、媒体和电信研究联席主管G. Hariharan指出:

“在AI模型的推理能力相当的情况下,训练成本存在显著差异,这引发了关于大规模GPU投资、高昂训练成本及大规模集群的必要性的讨论,是否可以通过更具成本效益的方式来实现更优模型性能?”

“话虽如此,在科技领域,单位功能成本一直在下降,通常每年下降15-25%,在技术应用的早期阶段下降速度甚至更快。”

“这对行业是积极的,因为它加速了新技术的传播(Jevons悖论)。事实上,这也是所有硬件技术产品周期的核心驱动力。”

关于成本趋势,Hariharan强调:

“DeepSeek R1的推理价格仅为OpenAI-o1的3-4%。”

“即便在DeepSeek R1推出之前,AI推理成本每年已下降85-90%,这成为推动此前不可行或成本过高的AI应用发展的关键因素。”

“能够进一步降低AI推理成本的创新技术可能会促使生成式AI(Gen AI)的更广泛应用。”

尽管DeepSeek展现了卓越的成本效率,J.P. Morgan美国半导体及半导体设备团队主管Harlan Sur指出,仍存在疑问:

“在得出结论之前,验证这些成本数据至关重要。关于训练数据集、专有优化方法以及模型和框架的整体开发成本,目前尚未披露具体细节。”


半导体

在DeepSeek发布后, J.P. Morgan美国半导体及半导体设备团队主管Harlan Sur 表示,投资者对“AI半导体支出的中长期影响”表示担忧。然而,Sur强调,这些发展对半导体行业可能带来的积极影响,包括:

  • “DeepSeek所展现的最新效率提升将加速推理(Inferencing)的采用和规模化进程(即更快的普及曲线),从而推动更高性能AI半导体解决方案的需求加速释放。”
  • “除了在基础模型和软件栈上的优化,我们认为仍然存在显著的 差异化和效率提升机会 ,特别是通过 内部开发的定制ASIC ,而非通用的商用GPU。”
  • “Jevons悖论——成本下降会以更快的速度推动新技术的普及——这将促进模型复杂性的提升,以及新技术创新的加速。”


AI资本支出

市场参与者关注**“AI资本支出预算是否会因DeepSeek展现的效率提升而大幅下降” 。Hariharan表示,短期内 超大规模云厂商(Hyperscalers)仍可能大举投资AI硬件,以确保其前沿LLM能够持续提升性能,并推动LLM在测试时推理(Test-time inference)等新方向的发展**。不过, 随着AI投资周期逐渐成熟,投资波动性可能加大 。这一观点在近期财报中得到印证:

  • 微软(MSFT) :预计未来两个季度的资本支出(CapEx)将维持在 与FQ2相似的水平 ,并表示 资本支出增速将在FY26放缓

    • 美国企业软件行业主管Mark Murphy
      指出,投资者可能会思考这是否意味着推理成本确实在下降,并推测微软的观点是:“如果LLM变得趋于商品化(无论是DeepSeek或其他厂商),那么价值将上移至应用层,同时下移至基础设施层,而微软在这两个领域都有大规模业务布局。”
  • Meta(META) :重申2025年资本支出预算 600亿-650亿美元 的指引,涵盖 生成式AI(Gen AI)、核心AI和非AI 三大领域的增长。

    • 美国互联网行业主管Doug Anmuth
      表示,管理层认为可以利用DeepSeek的技术进展,并强调 Meta在资本支出和基础设施上的大规模投资将成为长期战略优势 。此外, Meta首席AI科学家Yann LeCun 在周一指出,“当前大量AI基础设施投资正流向推理(Inference)而非训练(Training),而大规模AI助手服务的运行仍然需要庞大的计算资源。”

DeepSeek专家Call的核心要点


JP摩根 (G. Hariharan, 25/01/28)


  • 专家认为,DeepSeek的创新主要来自多个模型优化,包括 Mixture of Experts(MoE)、模型架构(如Multi-Head Latent Attention)、FP8的使用等 。DeepSeek R1似乎并非一个 独立的基础模型 ,而是可能基于其他开源模型(如Lambda)的发展,并进一步在 专门数据集 (包括其他LLM的输出)上训练而成。

  • 专家指出, DeepSeek训练成本约600万美元的数字可能并不具备代表性 ,因为这一估算 未包含其他运营成本 ,例如开发其他基础模型的成本等。此外,MoE模型似乎已经针对特定任务(如 编程和数学 )进行了优化,使其在某些指标上接近或超过OpenAI-o1的性能。

  • 在专家看来,这并不构成 范式转变 ,而更像是LLM模型、算法和技术的 持续创新 。如果这些效率提升被广泛实现,将推动 低成本推理模型 的普及,加速 Agentic AI (代理型AI)的发展。然而,专家认为 2025年Agentic AI可能更多是炒作,真正的企业部署预计要到2026年 ,原因包括 权限管理的需求 企业对AI信任度的缺乏 。总体来看,专家对AI模型的未来演进持乐观态度,认为AI仍处于非常早期的阶段,并类比互联网周期,认为目前更接近 1996年,而非1999年

  • 关于 前沿模型(Frontier Models) 的发展影响,专家表示目前尚不明朗。他始终认为 LLM很可能会快速商品化 ,尤其是在开源生态系统快速扩展的情况下。但同时,他认为 大型云服务提供商(CSPs)仍将继续开发前沿模型,以实现差异化,并开拓新一代生成式AI(Gen AI)的应用领域,如视频、现实世界AI、物理AI等

  • 专家预计 AI资本支出(CapEx)和能源使用预算仍将保持强劲 ,但如果R1模型的效率提升可以广泛应用到所有新模型,未来可能会有一定的 重新评估 。尽管如此,计算需求仍将保持旺盛,因为 更低成本的推理将促进更广泛的AI应用


DeepSeek: 云端AI需求展望&专家观点归纳

大摩 (C. Chan, D. Yen, 25/01/30)


我们对云端AI需求的正面看法未变,美国云服务提供商(CSPs)重申AI资本支出强度将保持稳定。然而,我们对 中国AI市场更加乐观 .

DeepSeek对行业的潜在影响

由于农历新年假期,大中华地区主要AI半导体公司(如TSMC、KYEC、Aspeed、Alchip)将在下周一复盘,我们基于当前信息整理了对DeepSeek影响的初步观点。 摩根士丹利研究团队 已发布多份关于DeepSeek背景的报告,我们的 亚洲科技分析师Shawn Kim 也指出,中国AI可能迎头赶上(详见报告)。同时,我们重申对联发科的 超配评级 ,因其是 中国智能手机端侧AI的重要推动者

大中华地区半导体行业 在Nvidia AI GPU及AI ASIC需求方面有显著敞口,我们的美国科技分析师 Joe Moore 的报告也值得关注。此外,我们与行业专家交流,以形成更深入的技术视角,并提供对覆盖公司的影响分析。同时, 微软(Microsoft)和Meta对AI资本支出的规划 仍是关键数据点,我们预计 主要AI半导体股 将与美国AI半导体公司同步反弹。

微软与Meta AI资本支出规划保持不变

  • 微软
    (由Keith Weiss覆盖)表示, 更先进的前沿模型 仍需进一步开发,且 AI推理成本下降 是合理趋势。
  • Meta
    (由Brian Nowak覆盖)管理层指出,当前判断DeepSeek的崛起对基础设施和资本支出轨迹的影响还为时过早。

DeepSeek的行业专家讨论要点

  1. DeepSeek的稳定模型
    展现了将不同技术整合的能力,部分AI开发者正在复刻其方法。
  2. 蒸馏(Distillation)技术
    可降低AI成本,但是否允许使用其他LLM进行训练仍取决于使用条款。
  3. 推理成本较低
    可能是战略性选择,获取更多用户反馈有助于改进下一代模型。
  4. 美国云服务提供商(CSPs)和AI开发者
    可能需要加大AI资本支出,以保持领先地位。 规模法则(Scaling Law)仍然适用,Nvidia AI GPU的需求应保持强劲

DeepSeek行业专家讨论要点及影响分析:

我们(大摩)通过行业网络与一位AI专家就DeepSeek进行了交流,核心观点如下:

  1. DeepSeek的技术整合能力具有意义 :正如Joe提到的,MoE(专家混合)和FP8(8-bit浮点格式)等技术并不新鲜,但专家认为,DeepSeek能够在 稳定模型 中整合这些技术仍然具有重要意义,特别是在其V3 LLM中未使用SFT(监督微调)。目前,美国和中国的一些AI开发者正在复刻DeepSeek的方法。

  2. 蒸馏技术降低成本,但受使用条款限制 :专家指出,从现有LLM进行蒸馏是降低AI成本的关键。Joe的报告提到,DeepSeek声称600万美元的训练成本可能未包含基础模型的开发,而强化学习和数据合成会消耗更多算力资源。此外,使用其他LLM进行模型训练取决于使用条款,可能并不被允许。

  3. 低推理成本的战略意义 :专家认为,DeepSeek的低推理成本可能是一种战略性选择,例如通过吸引更多用户来收集反馈,以改进下一代模型。但目前的 token定价下,DeepSeek盈利难度较大

  4. 美国CSPs和AI开发者需加大AI资本支出 :专家认为, 美国云服务提供商(CSPs)或AI开发者需加大AI资本支出,以维持领先地位 ,规模法则(Scaling Law)仍然适用,预计 Nvidia AI GPU的需求仍将保持强劲

DeepSeek的影响:进一步分析

  • 中国AI芯片本土化进程将持续 :DeepSeek及其中国同行的崛起可能会 推动本土AI芯片的发展 ,尽管受限于晶圆代工工艺,这些芯片的性能可能仍无法与Nvidia的Blackwell相匹敌。

  • 中国智能手机AI升级周期或提前 :随着更多蒸馏LLM(如DeepSeek R1)在手机端部署,中国智能手机的换机周期可能比预期更早。 联发科(MediaTek)是端侧AI的重要推动者,我们继续看好其增长潜力

  • 股票表现 :自1月23日台湾市场收盘以来, Nvidia股价下跌16%,TSMC ADR下跌10% 。美国AI半导体股的反弹是否会持续到2月3日台湾市场重开仍需观察,但我们对 云端AI半导体公司长期前景依然保持乐观



DeepSeek:可信度、低成本与推理需求

Jefferies (E. Lee, N. Cheng, 25/01/28)


我们的持续与专家的对话使我们对技术有了更多了解,并进一步形成了思考,这些思考我们将继续与投资者分享。

  1. 我们认为没有理由怀疑DeepSeek的性能和成本声明;
  2. 这是首次一个开源模型的性能能够与OpenAI的模型相匹敌;
  3. DeepSeek可能不是最低成本的参与者;
  4. 降低训练计算需求可能会被推理需求的增长所抵消;
  5. 推理工作很可能会由ASIC来完成。

许多AI专家并不认为DeepSeek的性能和成本声明存在可信度问题。首先,它在2023年发布了第一个模型,而V3和R1模型也已经发布了几周。DeepSeek也阐明了其方法论。在行业内,似乎没有AI专家怀疑DeepSeek在性能和效率方面所取得的成就(请参见下面关于训练成本的讨论)。作为一个开源模型,这也是为什么更多的公司愿意尝试它,甚至复制其方法论,以查看他们在计算能力上的节省效果。正如我们与一位海外AI专家交流时提到的,DeepSeek的最大成就是让开源模型的性能与GPT-4-o相匹配。这缩小了开源与封闭源之间的差距。但现在仍然为时过早,无法说哪个阵营最终会赢得竞争。竞争将会持续。

美国公司会采用DeepSeek模型吗?
虽然媒体和在线讨论强调了采用DeepSeek模型可能带来的安全性问题,但我们与海外AI专家的交流中了解到,这些问题并不会成为美国公司采纳DeepSeek模型的主要障碍。美国公司可以自行托管该开源模型,或者使用美国服务提供商来托管该模型。真正的安全性问题在于模型的输出内容。但专家认为,Llama模型和DeepSeek模型的输出内容在风险方面几乎没有什么区别。

DeepSeek的声明是否有开源模型,或者美国公司可以选择通过美国服务提供商来托管该模型。真正的安全问题在于模型提供的答案。不过,专家认为,Llama模型与DeepSeek模型的输出风险几乎没有差异,因此安全问题并不是主要障碍。

DeepSeek的宣称是否可信?

根据我们的讨论,DeepSeek宣称的低训练成本是有一定道理的。尽管如专家所指出的,训练成本的估算可能不包括基础模型的开发费用,但通过使用其他现有的LLM来训练自己的模型,可以降低训练成本,尤其是在数据合成和强化学习方面,虽然这可能需要更多的计算资源。专家表示,DeepSeek可能通过将现有LLM的知识进行“蒸馏”,以提高新模型的效能,进而实现降低计算成本的目标。

推理成本和需求

关于推理需求,一些专家认为,虽然训练过程中对计算能力的需求减少,但随着推理需求的增加,DeepSeek的推理成本和计算需求可能会有所上升。专家预测,DeepSeek未来的推理工作很可能会由专用的ASIC芯片来完成,以提高效率和降低成本。这种方式可能是DeepSeek降低推理成本、提升性能的关键因素。

美国云服务提供商的AI资本支出需求

我们与业内专家的交流进一步加强了我们对美国云服务提供商(CSPs)以及AI开发者将需要加大AI资本支出的观点。为了保持领先地位,特别是在AI推理和训练领域,美国CSPs将不得不增加对硬件和基础设施的投资。由于DeepSeek及其类似模型的崛起,AI硬件需求可能会更加紧迫,尤其是在Nvidia的AI GPU和ASIC需求方面。

中国AI芯片本土化趋势

我们认为DeepSeek及其同行在中国的崛起将鼓励更多本土AI芯片的发展。虽然中国的本土芯片可能不如Nvidia的Blackwell那么强大,但它们足以支持AI应用的需求。随着DeepSeek模型的普及,我们预计中国的AI手机更换周期可能会提前,比我们之前预期的更快。这意味着我们看好一些芯片厂商在中国市场的机会,尤其是在移动设备和边缘计算领域。


DeepSeek:Jevons悖论

德意志银行 (E. Lee, N. Cheng, 25/01/28)

上周,中国初创公司 DeepSeek 发布了一款AI助手,其性能似乎可与西方AI聊天机器人相媲美,但由于采用了 多项非硬件相关的创新 ,成本仅为竞品的一小部分。具体而言,DeepSeek的 R-zero 模型使用 强化学习(Reinforcement Learning) 替代当前的 监督数据训练(Supervised Data Training) 方法,而其 R1 模型进一步引入**冷启动(Cold Start) 思维链(Chain of Thought)**层,以提升输出质量。

表面上看,这些创新使其 总开发成本仅为557万美元 ,相当于现有竞品成本的 1/45 。尽管这一资本投入的结构性下降令人惊叹,并可能大幅降低AI投资成本,但我们注意到该项目的 真实成本仍不明确 ,因为技术论文中引用的GPU使用时长可能 定义上排除了前期训练资源

上周末, 多家独立机构对DeepSeek的模型进行了基准测试,并验证了其质量 ,引发了市场对 长期AI资本密集度 影响的担忧。因此,我们覆盖的 AI相关公司 出现了 显著抛售 ,包括**NVIDIA(NVDA)、Broadcom(AVGO)、Marvell(MRVL)、Arista Networks(ALAB)**等。

我们的观点:Jevons悖论

尽管DeepSeek的性能表现 乍看之下令人印象深刻 ,但我们强调,对于其 成本数据的真实性 仍存在 较大争议 ,这意味着 性能/价格的提升幅度(以及对芯片供应商的影响)可能被夸大 。具有讽刺意味的是,就在 上周 ,西方科技巨头仍在承诺 数千亿美元级别 的资本预算,以支持下一代模型的训练(例如 Stargate、META/GOOG的相关表态 ),突显出这一仍处于 早期阶段的技术领域的波动性和不确定性

从短期来看, 资本效率低下 以及 供应过剩风险 可能会带来更高的不确定性,但从长期来看, 模型效率的提升可能对我们覆盖的公司构成利好 ,因为 更低的AI成本将推动AI设备的更广泛应用 ,例如 PC/智能手机的更新换代超级周期是否会到来?

总体而言, AI生态系统仍在快速演变 ,市场对新技术的“ 过度反应 ”变得越来越普遍(如 上周对Stargate的反应与今天对DeepSeek的反应形成对比 )。我们认为, 地缘政治因素 是造成这一波动的核心驱动因素,并且可能会继续影响市场( 新一届政府是否会加大制裁力度作为回应? )。

如果DeepSeek的 性能与效率 优势被验证属实,我们认为这一趋势 可能会对当前的AI“赢家”构成额外压力 ,尽管我们预计 这些公司将在即将到来的财报电话会议中强烈反驳这些观点 。此外,我们将 继续关注这一AI技术进步对推理(Inference)+ 边缘计算(Edge Computing)的潜在影响 (这对 CPU/AP 是否是利好?)。

DeepSeek: TMT团队仍然认为AI主题正在从基础设施层向应用层转移
高盛 (D. Takayama, 25/01/27)

1月20日DeepSeek-R1推理模型发布以来,全球AI相关股票大幅下跌 Nvidia股价在1月27日下跌17% )。对此,我们的 美国TMT团队 于1月27日发布了一份报告,探讨这一事件对各行业的影响( 链接 )。

首先,该团队指出, DeepSeek-R1号称以显著更低的成本提供与OpenAI相当的性能 ,这使得投资者对 AI支出水平、投资回报率以及当前趋势的可持续性(包括历史趋势与未来发展) 产生疑问。这种不确定性 可能成为AI半导体和AI基础设施相关股票的压力因素 ,而这些公司迄今为止一直是 AI主题的最大受益者

尽管DeepSeek的消息引发的不确定性可能 限制估值倍数的上行空间,直至市场对形势有更清晰的认知 ,但我们的 美国半导体/半导体设备(SPE)分析师Toshiya Hari (覆盖Nvidia)强调:

  1. DeepSeek所披露的560万美元训练成本可能并未涵盖完整的开发成本
    ,其V3模型的训练基础设施仍存在不确定性。
  2. 从积极角度来看,DeepSeek的成果可能加速AI应用的普及
,而 R1和V3的推出可能会促使现有玩家加大投资,以维持或扩大其在AI能力上的领先地位

总体而言,我们的 美国TMT团队 仍然认为 AI主题正在从基础设施层向应用层转移


UBS电话会议归纳:DeepSeek的影响分析

UBS (T. Arcuri, 25/01/31)


  • DeepSeek R1的推出引发市场震动,导致AI相关股票大幅下跌,Nvidia股价在24小时内下跌17%,纳斯达克指数下跌3%,UBS的AI赢家股票篮子下跌9%。
  • 该模型 reportedly 以极低的成本训练出具备竞争力的基础模型,仅使用现有计算资源的3%,训练成本仅5.6亿美元。
  • 这一成本效益优势引发了市场对AI基础设施投资可持续性的质疑,尤其是对高端GPU的长期需求和投资回报率的讨论。

半导体行业影响

  • 半导体分析师表示,DeepSeek的技术创新不可否认,但市场的过度反应可能导致对半导体股估值上限的重新评估。
  • 关键技术创新:
  1. Mixture of Experts(MoE)
    :仅激活部分参数进行任务计算,提高计算效率。
  2. Multi-Head Latent Attention(MLA)
    :减少内存需求,优化推理速度。
  3. FP8精度训练
    :使用FP8替代传统FP32,以更低计算量完成训练。
  • 由于这些技术创新,DeepSeek声称在低成本硬件(如H800)上完成训练,但市场对其真实性仍存疑。
  • 预计短期内不会显著影响GPU需求曲线,影响时间或推迟至2027-2028年。
  • 软件行业影响

    • 软件分析师认为DeepSeek的影响可能会加速LLM的商品化,影响OpenAI等领先模型的护城河,并可能导致模型价格下行。
    • 低成本模型可能会推动AI应用普及,但企业AI采用的真正阻碍因素是 模型可靠性和用例开发 ,而非计算成本。
    • 若LLM价格进一步下降,软件公司可能需要降低AI产品定价,影响其AI业务的盈利能力。

    云计算和互联网行业影响

    • IT硬件/网络设备分析师指出,数据中心支出短期不会有大变化,预计2025-2026年仍有50%增长。
    • 互联网分析师认为Meta、Amazon和Google等科技巨头将调整其AI模型战略,但短期内不会影响其AI投资支出。
    • 长期来看,AI基础设施投资可能向推理计算(Inference)倾斜,云计算供应商可能受益。

    数据中心与工业领域影响

    • **数据中心运营商(Digital Realty、Equinix)**短期受影响,但长期可能因供应紧张受益。
    • **工业企业(Eaton、Trane Technologies)**的电力和冷却设备业务与AI数据中心高度相关,短期内需求无忧,但市场可能对长期增长率重新定价。

    整体结论

    • 市场对DeepSeek的反应可能存在过度解读,但长期来看,AI行业投资方向可能调整。
    • LLM模型的商品化加速,可能影响OpenAI等头部公司的竞争优势。
    • AI基础设施投资仍然重要,但重点可能从训练计算(Training)向推理计算(Inference)转移。
    • 未来财报季将成为关键观察点,企业如何回应DeepSeek的挑战将影响市场对AI行业的信心。

    JPM -  交易台

    DeepSeek回顾各大公司看法

    扎克伯格(Mark Zuckerberg)和纳德拉(Satya Nadella)对DeepSeek的成果表示认可……“他们做了一些新颖的事情,我们仍在消化”以及“我认为DeepSeek确实带来了真正的创新”。

    • 微软(MSFT) 表示,R1模型 今天已在其模型目录中上线
      ,同时R1的蒸馏版本 很快将在Copilot+ PC上本地运行
    • Meta(META) 认为DeepSeek的进展 进一步强化了对开源生态的信心
      ,并表示最终会形成“一个全球性的开源标准。而从国家竞争力的角度来看,我们认为这个标准应该是美国的。”
    • IBM表示:“这验证了我们过去一年来的观点,即更小的模型和更合理的训练时间对于企业级部署至关重要. 我们自己在这一方向上已经探索了一年多,并发现采用这些方法可将推理成本降低多达30倍。其他厂商开始沿着这条道路前进,我们认为这对企业客户而言是极大的利好。我们当然会在业务中利用这一趋势,但我们相信其他公司也会选择相同的路径。”

    高盛交易台 - GenAI Deep Dive
    G. Esposito (高盛,25/01/28)

    核心要点及DeepSeek的规模定位

    随着DeepSeek R1(推理模型)在基准测试中的成功,该事件引发了市场对AI主题交易的负面反应。DeepSeek由 中国的量化对冲基金“高飞(High-Flyer)” 所有,并基于 现有的开源模型(如Meta的Llama和阿里巴巴的Qwen) 构建。市场的担忧集中在 AI投资支出水平、投资回报率,以及当前资本支出趋势(无论是历史还是未来)的可持续性

    除了模型本身,该公司还推出了一款移动应用,截至报告发布时,该应用已 登顶美国iOS App Store排行榜 。市场的反应目前主要受以下问题驱动:

    • AI产业扩展所需的 总资本支出 (可参考下方GS预测图表);
    • 过去已投入的资本以及相对投资回报率;
    • 未来资本支出的节奏和规模。

    在Q4’24财报季到来之前,市场预计 科技和能源行业可能会面临持续的估值压力 ,直至企业管理层能够提供更清晰的观点和应对措施。

    AI主题的演进方向

    高盛(GS)研究 持续强调,AI主题的下一阶段演进 可能会从基础设施层向应用层转移 ,这一变化的主要表现形式包括:

    • AI智能体(AI Agents);
    • 企业级应用场景;
    • 消费者使用率上升;
    • 计算习惯的转变。

    这一趋势预计将在 2025年及以后提供更线性且可衡量的投资回报证明

    DeepSeek的规模有多大?

    随着 消费级AI 格局的不断演变,DeepSeek R1的正式发布(1月20日 )引发了围绕 基础设施层、AI模型/平台层、应用层 的广泛讨论。

    DeepSeek的移动应用(基于V3模型,于2025年1月15日发布)自上线以来 下载量激增 ,但 实际使用量尚未达到同等增长水平

    DeepSeek对半导体的影响

    GIR(高盛研究)认为,市场的负面反应是受 DeepSeek R1技术论文 影响,该论文暗示存在 以大幅降低成本构建高效AI模型的方法 。不过,需要注意以下几点:
    a) DeepSeek公布的560万美元训练成本可能并未涵盖V3模型的完整开发成本 ,因为其似乎 借鉴了多个开源模型
    b) DeepSeek V3模型的训练基础设施仍存在不确定性 ,包括 现有高端GPU出口管制的有效性 等问题。

    团队重点关注 计算/网络领域 的Nvidia、AMD、Broadcom、Marvell、Arm和Credo Technology, 存储领域 的Micron,以及 晶圆制造设备、测试及材料领域 的Applied Materials、Lam Research、KLA、Teradyne和Entegris。这些公司在AI基础设施的建设中发挥了关键作用, 若现有玩家放缓资本支出计划,可能面临负面影响 ;但如果他们决定 加速发展 ,则可能受益。

    DeepSeek对软件的影响

    尽管 通用人工智能(Artificial General Intelligence, AGI) 仍是许多私人软件公司的 终极目标 ,但在 应用层面 ,企业级Gen-AI应用 并不需要99分位数的顶级模型 。DeepSeek的出现 在基础模型层面引入了价格竞争 ,恰逢当前AI模型已基本足够满足大部分企业应用需求。更 低成本的模型 预计将促进 AI工作负载的更广泛应用 ,加速企业及消费者端的AI采用。

    团队观察到







    请到「今天看啥」查看全文