原则:
1)
本公众号为私人所有, 与任何机构和组织无关; 2) 本公众号仅归纳TMT领域外资研报观点, 严格不讨
论任何关于A股的投资观点;
2)
本公众号仅对外资研报内容进行归纳摘要, 尊重原文内容版权, 不会直接展示原文;
4)
本人无精力做知识星球, 不代找研报;
5)
做这个公众号的目的仅仅是读书学习笔记, 归个档, 仅此而已.
外资研报归纳请向下滑
25/02/02 周日 (
25年特刊01
)
本期核心内容包括:
-
JP摩根, 大摩, Jefferies, 高盛的研报观点
-
UBS的线上分析师Call录音归纳
-
JP摩根/大摩的专家观点归纳
-
JP摩根和高盛交易台点评
-
几个Semi**Analysis里关于DS算力成本的图表
DeepSeek: 成本效率的讨论和几个领域的影响
JP摩根 (S.Azzarello, 25/01/31)
成本效率
围绕AI行业支出可持续性的讨论因最近的DeepSeek发展而引发,主要源于新模型的出现。这些模型在性能上可与OpenAI相媲美,但训练和推理成本大幅降低。DeepSeek V3模型的训练成本约为560万美元,远低于领先的大型基础模型。相比之下,OpenAI首席执行官Sam Altman透露,ChatGPT-4在2023年的训练成本超过1亿美元,而最新模型的成本可能更高。
关于成本效率的进展,亚太科技、媒体和电信研究联席主管G. Hariharan指出:
“在AI模型的推理能力相当的情况下,训练成本存在显著差异,这引发了关于大规模GPU投资、高昂训练成本及大规模集群的必要性的讨论,是否可以通过更具成本效益的方式来实现更优模型性能?”
“话虽如此,在科技领域,单位功能成本一直在下降,通常每年下降15-25%,在技术应用的早期阶段下降速度甚至更快。”
“这对行业是积极的,因为它加速了新技术的传播(Jevons悖论)。事实上,这也是所有硬件技术产品周期的核心驱动力。”
关于成本趋势,Hariharan强调:
“DeepSeek R1的推理价格仅为OpenAI-o1的3-4%。”
“即便在DeepSeek R1推出之前,AI推理成本每年已下降85-90%,这成为推动此前不可行或成本过高的AI应用发展的关键因素。”
“能够进一步降低AI推理成本的创新技术可能会促使生成式AI(Gen AI)的更广泛应用。”
尽管DeepSeek展现了卓越的成本效率,J.P. Morgan美国半导体及半导体设备团队主管Harlan Sur指出,仍存在疑问:
“在得出结论之前,验证这些成本数据至关重要。关于训练数据集、专有优化方法以及模型和框架的整体开发成本,目前尚未披露具体细节。”
半导体
在DeepSeek发布后,
J.P. Morgan美国半导体及半导体设备团队主管Harlan Sur
表示,投资者对“AI半导体支出的中长期影响”表示担忧。然而,Sur强调,这些发展对半导体行业可能带来的积极影响,包括:
-
“DeepSeek所展现的最新效率提升将加速推理(Inferencing)的采用和规模化进程(即更快的普及曲线),从而推动更高性能AI半导体解决方案的需求加速释放。”
-
“除了在基础模型和软件栈上的优化,我们认为仍然存在显著的
差异化和效率提升机会
,特别是通过
内部开发的定制ASIC
,而非通用的商用GPU。”
-
“Jevons悖论——成本下降会以更快的速度推动新技术的普及——这将促进模型复杂性的提升,以及新技术创新的加速。”
AI资本支出
市场参与者关注**“AI资本支出预算是否会因DeepSeek展现的效率提升而大幅下降”
。Hariharan表示,短期内
超大规模云厂商(Hyperscalers)仍可能大举投资AI硬件,以确保其前沿LLM能够持续提升性能,并推动LLM在测试时推理(Test-time inference)等新方向的发展**。不过,
随着AI投资周期逐渐成熟,投资波动性可能加大
。这一观点在近期财报中得到印证:
DeepSeek专家Call的核心要点
JP摩根 (G. Hariharan, 25/01/28)
-
专家认为,DeepSeek的创新主要来自多个模型优化,包括
Mixture of Experts(MoE)、模型架构(如Multi-Head Latent Attention)、FP8的使用等
。DeepSeek R1似乎并非一个
独立的基础模型
,而是可能基于其他开源模型(如Lambda)的发展,并进一步在
专门数据集
(包括其他LLM的输出)上训练而成。
-
专家指出,
DeepSeek训练成本约600万美元的数字可能并不具备代表性
,因为这一估算
未包含其他运营成本
,例如开发其他基础模型的成本等。此外,MoE模型似乎已经针对特定任务(如
编程和数学
)进行了优化,使其在某些指标上接近或超过OpenAI-o1的性能。
-
在专家看来,这并不构成
范式转变
,而更像是LLM模型、算法和技术的
持续创新
。如果这些效率提升被广泛实现,将推动
低成本推理模型
的普及,加速
Agentic AI
(代理型AI)的发展。然而,专家认为
2025年Agentic AI可能更多是炒作,真正的企业部署预计要到2026年
,原因包括
权限管理的需求
和
企业对AI信任度的缺乏
。总体来看,专家对AI模型的未来演进持乐观态度,认为AI仍处于非常早期的阶段,并类比互联网周期,认为目前更接近
1996年,而非1999年
。
-
关于
前沿模型(Frontier Models)
的发展影响,专家表示目前尚不明朗。他始终认为
LLM很可能会快速商品化
,尤其是在开源生态系统快速扩展的情况下。但同时,他认为
大型云服务提供商(CSPs)仍将继续开发前沿模型,以实现差异化,并开拓新一代生成式AI(Gen AI)的应用领域,如视频、现实世界AI、物理AI等
。
-
专家预计
AI资本支出(CapEx)和能源使用预算仍将保持强劲
,但如果R1模型的效率提升可以广泛应用到所有新模型,未来可能会有一定的
重新评估
。尽管如此,计算需求仍将保持旺盛,因为
更低成本的推理将促进更广泛的AI应用
。
DeepSeek: 云端AI需求展望&专家观点归纳
大摩 (C. Chan, D. Yen, 25/01/30)
我们对云端AI需求的正面看法未变,美国云服务提供商(CSPs)重申AI资本支出强度将保持稳定。然而,我们对
中国AI市场更加乐观
.
DeepSeek对行业的潜在影响
由于农历新年假期,大中华地区主要AI半导体公司(如TSMC、KYEC、Aspeed、Alchip)将在下周一复盘,我们基于当前信息整理了对DeepSeek影响的初步观点。
摩根士丹利研究团队
已发布多份关于DeepSeek背景的报告,我们的
亚洲科技分析师Shawn Kim
也指出,中国AI可能迎头赶上(详见报告)。同时,我们重申对联发科的
超配评级
,因其是
中国智能手机端侧AI的重要推动者
。
大中华地区半导体行业
在Nvidia AI GPU及AI ASIC需求方面有显著敞口,我们的美国科技分析师
Joe Moore
的报告也值得关注。此外,我们与行业专家交流,以形成更深入的技术视角,并提供对覆盖公司的影响分析。同时,
微软(Microsoft)和Meta对AI资本支出的规划
仍是关键数据点,我们预计
主要AI半导体股
将与美国AI半导体公司同步反弹。
微软与Meta AI资本支出规划保持不变
-
微软
(由Keith Weiss覆盖)表示,
更先进的前沿模型
仍需进一步开发,且
AI推理成本下降
是合理趋势。
-
Meta
(由Brian Nowak覆盖)管理层指出,当前判断DeepSeek的崛起对基础设施和资本支出轨迹的影响还为时过早。
DeepSeek的行业专家讨论要点
-
DeepSeek的稳定模型
展现了将不同技术整合的能力,部分AI开发者正在复刻其方法。
-
蒸馏(Distillation)技术
可降低AI成本,但是否允许使用其他LLM进行训练仍取决于使用条款。
-
推理成本较低
可能是战略性选择,获取更多用户反馈有助于改进下一代模型。
-
美国云服务提供商(CSPs)和AI开发者
可能需要加大AI资本支出,以保持领先地位。
规模法则(Scaling Law)仍然适用,Nvidia AI GPU的需求应保持强劲
。
DeepSeek行业专家讨论要点及影响分析:
我们(大摩)通过行业网络与一位AI专家就DeepSeek进行了交流,核心观点如下:
-
DeepSeek的技术整合能力具有意义
:正如Joe提到的,MoE(专家混合)和FP8(8-bit浮点格式)等技术并不新鲜,但专家认为,DeepSeek能够在
稳定模型
中整合这些技术仍然具有重要意义,特别是在其V3 LLM中未使用SFT(监督微调)。目前,美国和中国的一些AI开发者正在复刻DeepSeek的方法。
-
蒸馏技术降低成本,但受使用条款限制
:专家指出,从现有LLM进行蒸馏是降低AI成本的关键。Joe的报告提到,DeepSeek声称600万美元的训练成本可能未包含基础模型的开发,而强化学习和数据合成会消耗更多算力资源。此外,使用其他LLM进行模型训练取决于使用条款,可能并不被允许。
-
低推理成本的战略意义
:专家认为,DeepSeek的低推理成本可能是一种战略性选择,例如通过吸引更多用户来收集反馈,以改进下一代模型。但目前的
token定价下,DeepSeek盈利难度较大
。
-
美国CSPs和AI开发者需加大AI资本支出
:专家认为,
美国云服务提供商(CSPs)或AI开发者需加大AI资本支出,以维持领先地位
,规模法则(Scaling Law)仍然适用,预计
Nvidia AI GPU的需求仍将保持强劲
。
DeepSeek的影响:进一步分析
-
中国AI芯片本土化进程将持续
:DeepSeek及其中国同行的崛起可能会
推动本土AI芯片的发展
,尽管受限于晶圆代工工艺,这些芯片的性能可能仍无法与Nvidia的Blackwell相匹敌。
-
中国智能手机AI升级周期或提前
:随着更多蒸馏LLM(如DeepSeek R1)在手机端部署,中国智能手机的换机周期可能比预期更早。
联发科(MediaTek)是端侧AI的重要推动者,我们继续看好其增长潜力
。
-
股票表现
:自1月23日台湾市场收盘以来,
Nvidia股价下跌16%,TSMC ADR下跌10%
。美国AI半导体股的反弹是否会持续到2月3日台湾市场重开仍需观察,但我们对
云端AI半导体公司长期前景依然保持乐观
。
DeepSeek:可信度、低成本与推理需求
Jefferies (E. Lee, N. Cheng, 25/01/28)
我们的持续与专家的对话使我们对技术有了更多了解,并进一步形成了思考,这些思考我们将继续与投资者分享。
-
我们认为没有理由怀疑DeepSeek的性能和成本声明;
-
这是首次一个开源模型的性能能够与OpenAI的模型相匹敌;
-
-
-
许多AI专家并不认为DeepSeek的性能和成本声明存在可信度问题。首先,它在2023年发布了第一个模型,而V3和R1模型也已经发布了几周。DeepSeek也阐明了其方法论。在行业内,似乎没有AI专家怀疑DeepSeek在性能和效率方面所取得的成就(请参见下面关于训练成本的讨论)。作为一个开源模型,这也是为什么更多的公司愿意尝试它,甚至复制其方法论,以查看他们在计算能力上的节省效果。正如我们与一位海外AI专家交流时提到的,DeepSeek的最大成就是让开源模型的性能与GPT-4-o相匹配。这缩小了开源与封闭源之间的差距。但现在仍然为时过早,无法说哪个阵营最终会赢得竞争。竞争将会持续。
美国公司会采用DeepSeek模型吗?
虽然媒体和在线讨论强调了采用DeepSeek模型可能带来的安全性问题,但我们与海外AI专家的交流中了解到,这些问题并不会成为美国公司采纳DeepSeek模型的主要障碍。美国公司可以自行托管该开源模型,或者使用美国服务提供商来托管该模型。真正的安全性问题在于模型的输出内容。但专家认为,Llama模型和DeepSeek模型的输出内容在风险方面几乎没有什么区别。
DeepSeek的声明是否有开源模型,或者美国公司可以选择通过美国服务提供商来托管该模型。真正的安全问题在于模型提供的答案。不过,专家认为,Llama模型与DeepSeek模型的输出风险几乎没有差异,因此安全问题并不是主要障碍。
DeepSeek的宣称是否可信?
根据我们的讨论,DeepSeek宣称的低训练成本是有一定道理的。尽管如专家所指出的,训练成本的估算可能不包括基础模型的开发费用,但通过使用其他现有的LLM来训练自己的模型,可以降低训练成本,尤其是在数据合成和强化学习方面,虽然这可能需要更多的计算资源。专家表示,DeepSeek可能通过将现有LLM的知识进行“蒸馏”,以提高新模型的效能,进而实现降低计算成本的目标。
推理成本和需求
关于推理需求,一些专家认为,虽然训练过程中对计算能力的需求减少,但随着推理需求的增加,DeepSeek的推理成本和计算需求可能会有所上升。专家预测,DeepSeek未来的推理工作很可能会由专用的ASIC芯片来完成,以提高效率和降低成本。这种方式可能是DeepSeek降低推理成本、提升性能的关键因素。
美国云服务提供商的AI资本支出需求
我们与业内专家的交流进一步加强了我们对美国云服务提供商(CSPs)以及AI开发者将需要加大AI资本支出的观点。为了保持领先地位,特别是在AI推理和训练领域,美国CSPs将不得不增加对硬件和基础设施的投资。由于DeepSeek及其类似模型的崛起,AI硬件需求可能会更加紧迫,尤其是在Nvidia的AI GPU和ASIC需求方面。
中国AI芯片本土化趋势
我们认为DeepSeek及其同行在中国的崛起将鼓励更多本土AI芯片的发展。虽然中国的本土芯片可能不如Nvidia的Blackwell那么强大,但它们足以支持AI应用的需求。随着DeepSeek模型的普及,我们预计中国的AI手机更换周期可能会提前,比我们之前预期的更快。这意味着我们看好一些芯片厂商在中国市场的机会,尤其是在移动设备和边缘计算领域。
德意志银行 (E. Lee, N. Cheng, 25/01/28)
上周,中国初创公司
DeepSeek
发布了一款AI助手,其性能似乎可与西方AI聊天机器人相媲美,但由于采用了
多项非硬件相关的创新
,成本仅为竞品的一小部分。具体而言,DeepSeek的
R-zero
模型使用
强化学习(Reinforcement Learning)
替代当前的
监督数据训练(Supervised Data Training)
方法,而其
R1
模型进一步引入**冷启动(Cold Start)
和
思维链(Chain of Thought)**层,以提升输出质量。
表面上看,这些创新使其
总开发成本仅为557万美元
,相当于现有竞品成本的
1/45
。尽管这一资本投入的结构性下降令人惊叹,并可能大幅降低AI投资成本,但我们注意到该项目的
真实成本仍不明确
,因为技术论文中引用的GPU使用时长可能
定义上排除了前期训练资源
。
上周末,
多家独立机构对DeepSeek的模型进行了基准测试,并验证了其质量
,引发了市场对
长期AI资本密集度
影响的担忧。因此,我们覆盖的
AI相关公司
出现了
显著抛售
,包括**NVIDIA(NVDA)、Broadcom(AVGO)、Marvell(MRVL)、Arista Networks(ALAB)**等。
我们的观点:Jevons悖论
尽管DeepSeek的性能表现
乍看之下令人印象深刻
,但我们强调,对于其
成本数据的真实性
仍存在
较大争议
,这意味着
性能/价格的提升幅度(以及对芯片供应商的影响)可能被夸大
。具有讽刺意味的是,就在
上周
,西方科技巨头仍在承诺
数千亿美元级别
的资本预算,以支持下一代模型的训练(例如
Stargate、META/GOOG的相关表态
),突显出这一仍处于
早期阶段的技术领域的波动性和不确定性
。
从短期来看,
资本效率低下
以及
供应过剩风险
可能会带来更高的不确定性,但从长期来看,
模型效率的提升可能对我们覆盖的公司构成利好
,因为
更低的AI成本将推动AI设备的更广泛应用
,例如
PC/智能手机的更新换代超级周期是否会到来?
总体而言,
AI生态系统仍在快速演变
,市场对新技术的“
过度反应
”变得越来越普遍(如
上周对Stargate的反应与今天对DeepSeek的反应形成对比
)。我们认为,
地缘政治因素
是造成这一波动的核心驱动因素,并且可能会继续影响市场(
新一届政府是否会加大制裁力度作为回应?
)。
如果DeepSeek的
性能与效率
优势被验证属实,我们认为这一趋势
可能会对当前的AI“赢家”构成额外压力
,尽管我们预计
这些公司将在即将到来的财报电话会议中强烈反驳这些观点
。此外,我们将
继续关注这一AI技术进步对推理(Inference)+ 边缘计算(Edge Computing)的潜在影响
(这对
CPU/AP
是否是利好?)。
DeepSeek: TMT团队仍然认为AI主题正在从基础设施层向应用层转移
高盛 (D. Takayama, 25/01/27)
自
1月20日DeepSeek-R1推理模型发布以来,全球AI相关股票大幅下跌
(
Nvidia股价在1月27日下跌17%
)。对此,我们的
美国TMT团队
于1月27日发布了一份报告,探讨这一事件对各行业的影响(
链接
)。
首先,该团队指出,
DeepSeek-R1号称以显著更低的成本提供与OpenAI相当的性能
,这使得投资者对
AI支出水平、投资回报率以及当前趋势的可持续性(包括历史趋势与未来发展)
产生疑问。这种不确定性
可能成为AI半导体和AI基础设施相关股票的压力因素
,而这些公司迄今为止一直是
AI主题的最大受益者
。
尽管DeepSeek的消息引发的不确定性可能
限制估值倍数的上行空间,直至市场对形势有更清晰的认知
,但我们的
美国半导体/半导体设备(SPE)分析师Toshiya Hari
(覆盖Nvidia)强调:
-
DeepSeek所披露的560万美元训练成本可能并未涵盖完整的开发成本
-
从积极角度来看,DeepSeek的成果可能加速AI应用的普及
,而
R1和V3的推出可能会促使现有玩家加大投资,以维持或扩大其在AI能力上的领先地位
。
总体而言,我们的
美国TMT团队
仍然认为
AI主题正在从基础设施层向应用层转移
。
UBS电话会议归纳:DeepSeek的影响分析
UBS (T. Arcuri, 25/01/31)
-
DeepSeek R1的推出引发市场震动,导致AI相关股票大幅下跌,Nvidia股价在24小时内下跌17%,纳斯达克指数下跌3%,UBS的AI赢家股票篮子下跌9%。
-
该模型 reportedly 以极低的成本训练出具备竞争力的基础模型,仅使用现有计算资源的3%,训练成本仅5.6亿美元。
-
这一成本效益优势引发了市场对AI基础设施投资可持续性的质疑,尤其是对高端GPU的长期需求和投资回报率的讨论。
半导体行业影响
-
半导体分析师表示,DeepSeek的技术创新不可否认,但市场的过度反应可能导致对半导体股估值上限的重新评估。
-
-
Mixture of Experts(MoE)
-
Multi-Head Latent Attention(MLA)
-
FP8精度训练
:使用FP8替代传统FP32,以更低计算量完成训练。
由于这些技术创新,DeepSeek声称在低成本硬件(如H800)上完成训练,但市场对其真实性仍存疑。
预计短期内不会显著影响GPU需求曲线,影响时间或推迟至2027-2028年。
软件行业影响
-
软件分析师认为DeepSeek的影响可能会加速LLM的商品化,影响OpenAI等领先模型的护城河,并可能导致模型价格下行。
-
低成本模型可能会推动AI应用普及,但企业AI采用的真正阻碍因素是
模型可靠性和用例开发
,而非计算成本。
-
若LLM价格进一步下降,软件公司可能需要降低AI产品定价,影响其AI业务的盈利能力。
云计算和互联网行业影响
-
IT硬件/网络设备分析师指出,数据中心支出短期不会有大变化,预计2025-2026年仍有50%增长。
-
互联网分析师认为Meta、Amazon和Google等科技巨头将调整其AI模型战略,但短期内不会影响其AI投资支出。
-
长期来看,AI基础设施投资可能向推理计算(Inference)倾斜,云计算供应商可能受益。
数据中心与工业领域影响
-
**数据中心运营商(Digital Realty、Equinix)**短期受影响,但长期可能因供应紧张受益。
-
**工业企业(Eaton、Trane Technologies)**的电力和冷却设备业务与AI数据中心高度相关,短期内需求无忧,但市场可能对长期增长率重新定价。
整体结论
-
市场对DeepSeek的反应可能存在过度解读,但长期来看,AI行业投资方向可能调整。
-
LLM模型的商品化加速,可能影响OpenAI等头部公司的竞争优势。
-
AI基础设施投资仍然重要,但重点可能从训练计算(Training)向推理计算(Inference)转移。
-
未来财报季将成为关键观察点,企业如何回应DeepSeek的挑战将影响市场对AI行业的信心。
DeepSeek回顾各大公司看法
扎克伯格(Mark Zuckerberg)和纳德拉(Satya Nadella)对DeepSeek的成果表示认可……“他们做了一些新颖的事情,我们仍在消化”以及“我认为DeepSeek确实带来了真正的创新”。
-
微软(MSFT)
表示,R1模型
今天已在其模型目录中上线
,同时R1的蒸馏版本
很快将在Copilot+ PC上本地运行
。
-
Meta(META)
认为DeepSeek的进展
进一步强化了对开源生态的信心
,并表示最终会形成“一个全球性的开源标准。而从国家竞争力的角度来看,我们认为这个标准应该是美国的。”
-
IBM表示:“这验证了我们过去一年来的观点,即更小的模型和更合理的训练时间对于企业级部署至关重要. 我们自己在这一方向上已经探索了一年多,并发现采用这些方法可将推理成本降低多达30倍。其他厂商开始沿着这条道路前进,我们认为这对企业客户而言是极大的利好。我们当然会在业务中利用这一趋势,但我们相信其他公司也会选择相同的路径。”
G. Esposito (高盛,25/01/28)
核心要点及DeepSeek的规模定位
随着DeepSeek R1(推理模型)在基准测试中的成功,该事件引发了市场对AI主题交易的负面反应。DeepSeek由
中国的量化对冲基金“高飞(High-Flyer)”
所有,并基于
现有的开源模型(如Meta的Llama和阿里巴巴的Qwen)
构建。市场的担忧集中在
AI投资支出水平、投资回报率,以及当前资本支出趋势(无论是历史还是未来)的可持续性
。
除了模型本身,该公司还推出了一款移动应用,截至报告发布时,该应用已
登顶美国iOS App Store排行榜
。市场的反应目前主要受以下问题驱动:
-
AI产业扩展所需的
总资本支出
(可参考下方GS预测图表);
-
-
在Q4’24财报季到来之前,市场预计
科技和能源行业可能会面临持续的估值压力
,直至企业管理层能够提供更清晰的观点和应对措施。
AI主题的演进方向
高盛(GS)研究
持续强调,AI主题的下一阶段演进
可能会从基础设施层向应用层转移
,这一变化的主要表现形式包括:
这一趋势预计将在
2025年及以后提供更线性且可衡量的投资回报证明
。
DeepSeek的规模有多大?
随着
消费级AI
格局的不断演变,DeepSeek R1的正式发布(1月20日
)引发了围绕
基础设施层、AI模型/平台层、应用层
的广泛讨论。
DeepSeek的移动应用(基于V3模型,于2025年1月15日发布)自上线以来
下载量激增
,但
实际使用量尚未达到同等增长水平
。
DeepSeek对半导体的影响
GIR(高盛研究)认为,市场的负面反应是受
DeepSeek R1技术论文
影响,该论文暗示存在
以大幅降低成本构建高效AI模型的方法
。不过,需要注意以下几点:
a)
DeepSeek公布的560万美元训练成本可能并未涵盖V3模型的完整开发成本
,因为其似乎
借鉴了多个开源模型
;
b)
DeepSeek V3模型的训练基础设施仍存在不确定性
,包括
现有高端GPU出口管制的有效性
等问题。
团队重点关注
计算/网络领域
的Nvidia、AMD、Broadcom、Marvell、Arm和Credo Technology,
存储领域
的Micron,以及
晶圆制造设备、测试及材料领域
的Applied Materials、Lam Research、KLA、Teradyne和Entegris。这些公司在AI基础设施的建设中发挥了关键作用,
若现有玩家放缓资本支出计划,可能面临负面影响
;但如果他们决定
加速发展
,则可能受益。
DeepSeek对软件的影响
尽管
通用人工智能(Artificial General Intelligence, AGI)
仍是许多私人软件公司的
终极目标
,但在
应用层面
,企业级Gen-AI应用
并不需要99分位数的顶级模型
。DeepSeek的出现
在基础模型层面引入了价格竞争
,恰逢当前AI模型已基本足够满足大部分企业应用需求。更
低成本的模型
预计将促进
AI工作负载的更广泛应用
,加速企业及消费者端的AI采用。
团队观察到