专栏名称: 刘翔电子研究
国信电子行业分析师:刘翔、蓝逸翔、马红丽、唐泓翼,关注中国电子产业在全球产业链中角色的渐进式升级,致力于为A股二级市场机构投资者提供专业的电子板块股票投资咨询,为中国电子产业与资本共荣尽一己绵薄之力。
目录
相关文章推荐
刑事实务  ·  实务中给DeepSeek设置的指令集合(共1 ... ·  昨天  
西安头条  ·  突发重大刑案!警方通告 ·  2 天前  
西安头条  ·  突发重大刑案!警方通告 ·  2 天前  
最高人民检察院  ·  周喜安被查 ·  2 天前  
51好读  ›  专栏  ›  刘翔电子研究

黄仁勋的不淡定,你注意到了吗?

刘翔电子研究  · 公众号  ·  · 2024-03-12 15:00

正文

昨天, 黄仁勋在斯坦福有两场演讲,其中后一场信息量很大。提到了英伟达面临的几个挑战,内容很多,信息量很大。今天接上黄教主的话题,探讨一些有关AI格局的思考,希望能直击读者心灵、促发读者思考。若能如此,就是对读者最大的尊重和回报。
考虑到公众号文不能太冗长,我们今天只接黄教主一个球。

我特意挑出期间最为关键话题: “有关ASIC的竞争”。 希望就这个话题深入探讨话题的起源、背后及对未来的影响,借此探讨帮助读者建立对未来格局一个清醒全面预判。
我们,先看一下黄教主是怎么说的?

“关于ASIC的竞争

我们不仅有来自竞争对手的竞争,我们还有来自客户的竞争(云厂),而且我是他们眼中唯一的竞争对手。 而且我们明明知道客户即将设计一款芯片来取代我们,我还要继续向他们展示我目前的芯片、下一代的芯片,以及之后的芯片,各种秘密 。这样做的原因是,你要尝试让他们相信你在这个领域是最好,他们才会不得不选择你。因此,我们都是完全透明的。 诚然你可以为特定的算法构建一款优秀的芯片(ASIC),但记住,计算不仅仅是关于transformer,更何况我们正在不断地发明新的transformer变种, 除此之外,软件的种类非常丰富,因为软件工程师就喜欢创造新玩意儿。Nvidia擅长的是加速计算,我们的架构不仅能加速算法,而且是可编程的,这意味着你可以用它来处理SQL(SQL自20世纪60年代IBM以来就出现了,它是存储计算中非常重要的部分,每几年就有300ZB的数据被创造出来,其中大部分都存储在SQL结构化数据库中),我们可以加速量子物理、加速所有的流体和粒子代码等等广泛领域, 其中之一才是生成式AI。 对于那些希望拥有大量客户的数据中心来说,无论是金融服务还是制造业等,我们都是一个最棒的标准。我们存在于每一个云服务中,存在于每一个计算机公司中。因此,我们公司的架构经过大约30年成为了一种标准。这就是我们的优势。如果客户能够有更具成本效益的替代方案,我甚至会为此感到惊讶。 原因是,当你看到现在的计算机时,它不像笔记本电脑,它是一个数据中心,你需要运营它。因此,购买和销售芯片的人仅仅考虑的是芯片的价格,而运营数据中心的人考虑的是整个运营成本、部署时间、性能、利用率以及在所有这些不同应用中的灵活性。总的来说,我们的总运营成本(TCO)非常好, 即使竞争对手的芯片是免费的,最终算下来它也不够便宜 我们的目标是增加如此多的价值,以至于替代品不仅仅是关于成本的问题 。当然,这需要大量的努力,我们必须不断创新,我们不能对任何事掉以轻心。我本来希望不要听起来太有竞争性,但约翰问了一个竞争问题,我以为这是个学术论坛....这触发了我的竞争基因,我道歉,我本可以更艺术地处理这个问题。(哄笑)”


“为什么英伟达开始想做ASIC?

我们 是否愿意定制 化?是的,我们愿意。为什么现在的门槛相对较高?因为我们平台的每一代产品首先有GPU,有CPU,有网络处理器,有软件,还有两种类型的交换机。 我为一代产品建造了五个芯片,人们以为只有GPU一个芯片,但实际上是五个不同的芯片 ,每个芯片的研发成本都是数亿美元,仅仅是为了达到我们所说的“发布”标准,然后你必须将它们集成到一个系统中,然后你还需要网络设备、收发送器、光纤设备,以及大量的软件。运行一个像这个房间这么大的计算机,需要大量的软件,所以这一切都很复杂。 如果定制化的需求差异太大,那么你必须重复整个研发过程。然而,如果定制化能够利用现有的一切,并在此基础上增加一些东西,那么这就非常有意义了。 也许是一个专有的安全系统,也许是一个加密计算系统,也许是一个新的数值处理方式, 还有更多,我们对这些非常开放。 我们的客户知道我愿意做所有这些事情,并认识到,如果你改变得太多,你基本上就全部重置了,浪费了近千亿美元。 所以他们希望在我们的生态系统中尽可能地利用这些(减少重置成本 )。”

如上很显然,黄教主对定制ASIC的竞争话题已经不淡定了。

首先,什么是定制ASIC? 英伟达出的产品是GPU,GPU和CPU类似,都是通用芯片,其中核心计算单元是CORE(如下图),不仅仅可以结算FMA(Fused Mutiply-Add)这样简单的运算,还可以执行更加复杂的运算操作,例如tensor张量(tensor core)或者光线追踪(ray tracing core)相关的操作。这个很像以前我们做图像或者信号处理,算法里面经常用到傅里叶变化,硬件电路经常是用TI或者ADI的DSP来实现。因为DSP的“乘累加”电路基础单元,特别匹配傅里叶变化。定制ASIC,与CPU、GPU和DSP不一样,是为某一个具体应用专门定制的集成电路芯片。

在公众场合,黄教主前后两次重点谈及定制ASIC的竞争。显然这并不是就一个随口提问的答复,而是有针对性的回应。那回应的是谁呢?为啥这么强烈的回应呢?这背后一定有故事!

黄教主的不淡定触动了一个资深双师(分析师和工程师)的敏感神经,我第一时间把黄教主的发言发在知识星球上,并针对该话题连续发问,期待引起大家的探讨反馈。不过很遗憾,并没有人接招。

因为平时积累、思考的差异,每个人对话题的敏感度也不一样。我是早在好几个月前,就特别意识到这一点,为此还专门写了一篇文章《 科技巨头不让英伟达一家独大,AMD逢缘 》。

这种隐隐的不安最近又莫名地加强了。尤其是,上周末博通和marvell的业绩说明会上的一些信息,让我意识到必须重视这个技术路径分歧了。

博通的业绩说明会主要内容,大家可以参考我前两天公众号文《 又一个70亿美元的竞争对手出现了,英伟达的股价要不要心慌1秒? 》的后半段。我为读者做了22点精选摘要。

有关定制加速器芯片(即与英伟达竞争的定制ASIC),博通电话会提到几个关键信息点:

  • 2023Q4,数据中心相关半导体收入33亿美元、同比大幅增长46%,增长主要是因为两个超级大客户定制AI加速器,且定制AI芯片增速超过了普通AI加速芯片增速。

  • 由于人工智能强劲,本来12月预计24财年半导体AI收入占比25%,现在要把这个占比提升到35%。预计24财年AI半导体收入超100亿美元。

  • AI半导体收入从一个季度前预计的75亿美元提升至100亿美元,比原预期多增加25亿美元。新增部分70%由超级客户要求的定制AI加速器贡献、30%由标准AI加速器贡献。

  • 100亿美元AI半导体中,70%是AI加速器,20%是交换机和路由器芯片,剩下的10%就是光器件、DSP这些元件。

  • 为两个超级大客户定制AI加速芯片,但也仅仅两个。定制芯片是需要大量资金来匹配,还要考虑商业模式,需要不断迭代,还需要和客户的软件、固件匹配。和CPU时代不同,定制AI加速器在GPU时代还处于很早期。

  • AI加速器不仅仅是一大堆浮点乘法器或者矩阵回归分析计算,还需要大量的高速内存,外购高速内存颗粒一起结合起来做成AI加速器。即使定制的AI逻辑计算部分毛利率高,但是总体毛利率不会高,因为需要外购昂贵的HBM。


其实不单单是博通收到了大客户的定制AI加速器(GPU)订单,Marvell也有收到。Marvell在业绩说明会上是这么讲的:

  • 预计两个定制AI加速器芯片在24年第一季度首批出货,并有望在本财年下半年大幅增加。

  • 预计AI加速器芯片的年收入有可能与快速增长的数据中心光学业务收入差不多。作为参考,数据中心光学业务在 2024 财年增长到 10 亿美元以上。过去两年中,已经成功设计了多个 5 纳米AI加速器芯片,并与云客户就新的 3 纳米方案进行了深入合作。

  • 宣布延长与台积电的长期合作,以开发业界首个技术平台,以生产 2 纳米的AI加速器芯片。

  • 全年预计定制AI加速器收入10亿美元,而且从客户预测值来看25年仍然会非常好。

  • AI方面,定制加速芯片会和标准GPU非常互补,两者都有存在的必要。

  • 两个客户的 AI定制芯片处于生产爬坡的初始阶段,3nm的项目会非常值得期待,还会带动交换机、光学DSP业务。

  • 全球四大超级云厂商都非常需要满足差异化的独特解决方案,满足更多的sku,而且速度比预想的快。


然而,不仅仅是博通和marvell,据说思科也收到了类似订单。博通提到的两个定制AI加速器超级云厂商客户,公司在会上没说具体公司名,但是我猜是meta和谷歌;marvell的两家也没点出具体名字,我只能猜出一家是亚马逊,另外一家希望知道的读者能留言告诉我。







请到「今天看啥」查看全文