近日,博通发布财报业绩,2024财年公司AI收入增长220%,达到122亿美元。受此消息提振,周五博通股价大涨24.4%,成为继英伟达、台积电之后,
全球第三家市值过万亿美元的半导体公司
。
随着人工智能对算力提出更高的要求,传统的CPU架构难以满足,因此具有海量数据并行计算能力、能加速计算处理的AI算力芯片应运而生,根据技术架构,
AI芯片主要分为三类:GPU、ASIC、FPGA
。
GPU和FPGA是比较成熟的通用性芯片。ASIC与GPU芯片相比,
ASIC的单位算力成本更低,满足一定的降本需求。因其成本较低,功耗也更低,展现出了更高的性价比。
一、什么是ASIC芯片?
ASIC,英文全称:Application-Specific Integrated Circuits, 即专用集成电路。是一种专用型芯片,针对特定用户要求和场景应用而设计,在特定任务上的计算能力强大,通常具有较高的能效比。
与FPGA相比,ASIC灵活性差、专用度高、但体积小、功耗低、计算性能更好。
ASIC全球头部厂商为谷歌、博通、Marvell。
ASIC芯片可分为TPU、DPU、NPU:
(1)TPU即张量处理器,专用于机器学习。
(2)DPU为数据中心等计算场景提供计算引警.
(3)NPU即神经网络处理器,在电路层模拟人类神经元和突触,并用深度学习指令集处理数据。
AISC属于定制款芯片,因此性能更强、能耗更低,但研发门槛高、设计周期长,所以价格更贵,但大规模量产后成本显著降低。
二、市场规模:
AI ASIC
具备功耗、成本优势,
目前仍处于发展初期
,市场规模有望高速增长。
目前
ASIC
在
AI
加速计算芯片市场占有率较低,预计增速快于通用加速芯片。据
Marvell
预测,
2023
年,定制芯片仅占数据中心加速计算芯片的
16%
,其规模约
66
亿美元,预计
2028
年数据中心定制加速计算芯片规模有望超
400
亿美元。
ASIC
单卡算力与
GPU
仍有差距,
但
单卡性价比和集群算力效率优秀
。
ASIC
中算力相对较高的谷歌
TPU v6
和微软
Maia 100
算力约为
H100
非稀疏算力的
90%
、
80%
,同时
ASIC
的单价显著低于
GPU
,故而在推理场景呈现更高的性价比;
ASIC
的芯片互联以
PCIe
协议为主,处于追赶状态,
NVLink
协议更具优势;在服务器互联方面,ASIC
主要采用以太网,正追平英伟达的
IB
网络,目前
H100
集群可以做到
10
万卡规模,
ASIC
中谷歌
TPU
相对更为领先,
TPU v5p单个
Pod
可达
8960
颗芯片,借助软件能力,
TPUv5e
可拓展至
5
万卡集群,且保持线性加速。由于
ASIC
专为特定场景设计,且云厂商对软件生态掌握程度也较高,
ASIC
集群的算力利用率实际可能高于
GPU
(如
TPU
、
MTIA
等)。
软件生态也是影响
AI
计算能力的重要因素,
当前
CUDA
生态占据主导,
ASIC
软件生态有望逐步完善
。
云厂商普遍具备较强的研发能力,均为
AI ASIC
研发了配套的全栈软件生态,开发了一系列的编译器、底层中间件等,提升
ASIC
在特定场景下的计算效率。此外,一些商用芯片厂商也推出了开源平台,如
ROCm
和
oneAPI
,未来
ASIC
的软件生态将会愈发成熟、开放。
三、投资建议:
ASIC
针对特定场景设计,有配套的通信互联和软件生态,虽然目前单颗
ASIC
算力相比最先进的
GPU
仍有差距,但整个ASIC
集群的算力利用效率可能会优于可比的
GPU
,同时还具备明显的价格、功耗优势,有望更广泛地应用于
AI
推理与训练。
我们
看好
ASIC
的大规模应用带来云厂商
ROI
提升
,同时也
建议关注定制芯片产业链相关标的
。
四、风险提示
:
AI
算法技术风险、生态系统建设不及预期、芯片研发不及预期、
AI
产业发展不及预期
目录