英伟达
GTC 2024
于北京时间
3
月
1
9
日
召开,
CEO
黄仁勋
发布主题演讲“
见证
AI
的变革时刻
”,
推出新一代
Blackwell
系列超级
芯片
GB200
。
点评
:
AI
超级芯片
G
B
200
正式发布
,
多家大厂计划使用
。
GB200
超级芯片由
2
片
B200 GPU
和
1
片
Grace CPU
连接而成,提供高达
40 PFLOPS
的算力、
864GB
的内存容量、
16TB/s
的
HBM
带宽和
3.6TB
/s
的
NVLink
带宽
。
Blackwell
系列拥有更强的算力和综合成本,以训练
1.8
万亿参数量的
GPT
模型
为例,较
Hopper
系列
仅需其
四分之
一
的
GPU
卡和电力消耗
。
与
GB200
同时
对应
推出的还有
GB200 NVL72
计算单元
(
1.4
EFLOPS
算力
)
和
DGX GB200
SuperPod
(
240TB
内存和
11.5
EFLOPS
的
FP4
计算能力
)
。
黄仁勋表示,
亚马逊、谷歌、微软和甲骨文
等多家云服务厂商
都已计划在其云服务产品中提供
NVL72
机架
和
GB200
产品方案。
应用场景打开,
AI
大模型有望加速商业化落地。
英伟达软件生态赋能多个场景的应用落地:
Earth-2
平台利用先进的
CorrDiff
GenAI
模型使得气象高分辨率模拟的速度较当前数值模型快
1000
倍,能效高出
3000
倍;
BioNeMo
基础模型
促进
生物医药领域
发展
;新推出人形机器人通用基础模型
Project GR00T
、
Issac
开发套件和
Jetson Thor Soc
,为机器人学习世界提供模拟环境。软件生态方面,英伟达公布
NIM
推理微服务
(定价
4500
美元
/GPU/
年)
,该服务由预构建的
Kubernetes
容器、模型、
API
和推理引擎组成,方便开发者在云、端侧开发部署大模型。同时,英伟达还展示了工业数字孪生的工具
Omniverse Cloud
,并支持
Apple Vision Pro
。
AI
生态和
AI
应用多点开花,有望形成供给与需求的正循环。
本次硬件
新产品的亮点主要包括
ABF
载板、第二代
Transformer
引擎、
升级的
NVLink
switch
芯片和液冷方案。
GB200
相较前代
GH200
产品芯片尺寸显著增加、集成度提高,对高性能
ABF
载板的需求量有正向拉动。
Blackwell
架构的第二代
Transformer
引擎,新增支持
FP4
、
FP6
精度,将内存可以支持的新一代模型的性能和大小翻倍。升级
的
NVLink
switch
芯片,现为每个
GPU
提供了
1.8TB/s
双向吞吐量。
DGX GB200
SuperPod
采用新型高效液冷机架规模架构,液冷方案渗透率提升。
英伟达
GB200
芯片发布和大模型应用加速落地望催化算力产业链。
我们认为,
GB200
所需
HBM
、
ABF
载板等
量
的
提升
逻辑
顺畅
,
HBM
、
PCB
产业链
有望受益
;
DGX GB200
采用高速
Serdes IP
和液冷方案
,相关公司受益。同时,英伟达芯片的发布有望对国产算力产业链公司产生映射。
建议关注: