专栏名称: 江大白
专业有趣的AI内容平台,关注后回复【算法】,获取45家大厂的《人工智能算法岗江湖武林秘籍》
目录
相关文章推荐
媒哥媒体招聘  ·  珠海演艺集团招聘! ·  4 天前  
看理想  ·  低能量人士的一天,要说32次“算了” ·  4 天前  
51好读  ›  专栏  ›  江大白

一分钟了解,英伟达H100的毛利有多高?

江大白  · 公众号  ·  · 2025-01-20 08:00

正文

以下 章来源于微信公众号:IT技术分享-老张

作者:老张666

链接:https://mp.weixin.qq.com/s/HTDyB0jPWYnuQ3uRTO0vuw

本文仅用于学术分享,如有侵权,请联系 台作删文处理

导读
H100是NVIDIA发布的第四代AI专用显卡,是AI领域当前的“硬通货”之一。随着大模型训练需求的大幅增加,在市场上往往一“卡”难求。本文将从显卡生产的全流程进行解析,计算H100显卡的成本和毛利率。
最近看到一个视频号的作品《英伟达的显卡是如何生产的》,其中分析了H100 GPU的成本和毛利率,非常夸张高达90%以上,成本组成主要有晶圆材料、HBM内存、台积电代工等,按照SXM H100的国内市场价25W一张,到底是如何计算的呢?我们简单聊聊!

一、H100从晶圆到成品的步骤和成本
大家知道,英伟达GPU的芯片代工厂是台积电,一块H100 GPU核心逻辑芯片的面积是814 mm²,一张12英寸的晶圆可切割出86块按照80%的良率及损耗实际可以切出65块逻辑芯片,英伟达的报价1.34w美元每张晶圆,核算下来一块H100的逻辑芯片约200美元,
一块H100还需要HBM显存芯片6块,来自韩国SK海力士,每片16G,每GB约15美元左右,80GB显存的H100合计显存芯片成本约为1500美元;当然市场上还有H100的衍生类芯片如H100 NVL由2个H100组成,但每个H100为96G显存(启用了全部的显存容量)。显存芯片通过台积电的CoWoS技术把GPU芯片和6颗显存芯片连接起来。
CoWoS的代工难道极高,远高于代工一块核心逻辑芯片,是提高显存带宽的秘密武器(曾经一段时间H100缺货就是因为产能卡在这个工艺上);
HBM内存封装完成后,台积电的工作就介绍了,接下来是由富士康把外围的电路板和芯片封装在一起,就是我们市场上所看到的样子了。一块堪比同重量黄金的H100芯片就诞生了;
简单汇总一下H100的物料成本有:
  • 核心逻辑芯片:200$
  • HMB内存芯片:1500$
  • CoWoS封装:723$
  • 上述三项合计约2500$,再加上物料成本总计约3000$,按照今天7.33的美元汇率,约合万2.2万¥;
二、单卡SXM H100的毛利率分析
目前一个HGX H100模组我们按照约200万¥计算,每张H100 SXM是200除以8,约25万¥;
毛利率的计算为: (25-2.2 )÷25 x 100%=91.2%
注:以上内容来自于互联网,肯定和实际有偏差,欢迎大家指正!


欢迎加入《AI未来星球》,一起成长
扫描下方二维码即可加入~






请到「今天看啥」查看全文