专栏名称: 六合商业研选
六合咨询立足新经济,挖掘明日之星,发现价值,传播价值;国际化视野、多角度观察、深度思考、体系化研究,持续提升研究广度与深度,全面覆盖一级、新三板、二级(A股+美股+港股);深度剖析优质企业商业模式与投资价值,前瞻性洞察行业本质与发展趋势。
目录
相关文章推荐
最江阴  ·  刚刚,江苏多地下雪!江阴…… ·  12 小时前  
中国国家地理  ·  春日旅行第一站,去看大地的“五线谱” ·  14 小时前  
中国国家地理  ·  这地方,是“万龙甲”照进现实景观了吗? ·  14 小时前  
中国国家地理  ·  这里才是江南水乡之夜! ·  昨天  
甘肃省文化和旅游厅  ·  张掖平山湖大峡谷:红色崖壁下的自然奇观 ·  2 天前  
甘肃省文化和旅游厅  ·  张掖平山湖大峡谷:红色崖壁下的自然奇观 ·  2 天前  
51好读  ›  专栏  ›  六合商业研选

【长期主义】第285期智能说:英伟达2025财年Q1财报电话会议纪要,黄仁勋对话Stripe联合创始人

六合商业研选  · 公众号  ·  · 2024-06-10 06:30

正文


2024 5 22 日,英伟达发布 2025 财年(上年 2 ~ 当年 1 月) Q1 财报,各项数据全面超预期。英伟达发布财报后,召开分析师电话会议, 英伟达创始人、 CEO 黄仁勋,执行副总裁、 CFO 科莱特 · 克雷斯等, 出席财报电话会议,解读财报要点并回答分析师提问。

2024 4 26 日,在移动支付巨头 Stripe 举办 Sessions 用户大会, Stripe 联合创始人、 CEO 帕特里克 · 克里森 Patrick Collison ,与英伟达 CEO 黄仁勋进行炉边对话,讨论英伟达的管理哲学。黄仁勋分享工作理念与团队管理心得,最好的工作不是那些一直能带来快乐的模式,毕竟伟大的事情并不容易做到,所以努力去做困难的事情会更有意义。

本期长期主义,选择英伟达 2025 财年 Q1 财报电话会议、黄仁勋对话 Patrick Collison 纪要, Web3 天空之城、腾讯科技发布,六合商业研选精校,分享给大家, Enjoy

正文:

全文 25,754

预计阅读 52 分钟

英伟达 2025 财年 Q1 财报会议全纪录

时间: 2024 5 23

来源: Web3 天空之城

字数: 13,896

2025 Q1 财报业绩全面优于预期

财报显示, NVIDIA Q1 每股收益 6.12 美元,总收入达到 260 亿美元,超出市场预期 14 亿美元。展望未来, NVIDIA 预测 2025 Q2 收入将达到 280 亿美元,高于分析师预期。 NVIDIA 宣布将进行 10 1 股票拆分,将季度现金股息提高 150% 。公司预计 2025 财年毛利率,将维持在 70% 左右。

数据中心业务强劲增长, AI 与云服务表现突出

NVIDIA Q1 亮眼表现,主要受益数据中心业务强劲增长。 数据中心收入同比增长 23% ,达到 226 亿美元,推动总收入较 2023 年同期增长 262% 。游戏业务收入下降 8% NVIDIA AI 与云服务领域出色表现,弥补这一损失。

NVIDIA 客户包括苹果、微软、亚马逊、 Facebook 等大型科技公司,这些公司对 NVIDIA Hopper GPU 计算平台需求强劲。 NVIDIA AI 基础设施,已在云服务提供商中得到大规模部署与扩展,软件堆栈与生态系统使客户能够轻松在公共云中启动与运行 GPU 实例。

NVIDIA 助力特斯拉等企业客户,推动 AI 发展

NVIDIA 与特斯拉等企业客户保持密切合作,支持扩展 AI 训练集群,并为最新的自动驾驶软件 FSD V12 提供基础设施。 NVIDIA 预计,汽车行业将成为 2024 年数据中心内最大企业垂直行业。

消费者互联网公司,也是 NVIDIA 一个强劲增长点, Meta 最新推出大型语言模型 Llama-3 ,就是在 NVIDIA GPU 集群上进行训练。

NVIDIA 与全球客户合作建设 AI 工厂

NVIDIA 正与全球超过 100 家客户合作,建设规模从数百到数万个 GPU 不等的 AI 工厂。随着世界各国对主权 AI 投资不断增加, NVIDIA 预计数据中心收入将呈现多样化趋势。

在日本、法国、瑞士、新加坡等国, NVIDIA 正与当地数字基础设施提供商合作,建设主权 AI 基础设施与超级计算机。

NVIDIA 提供全方位的计算到网络技术、全栈软件、 AI 专业知识,以及丰富的合作伙伴与客户生态系统,推动主权 AI 与区域云提供商的发展。

NVIDIA 预计,主权 AI 收入 2024 年可以达到数十亿美元。

针对中国市场推出新产品,应对出口管制挑战

面对中国市场激烈竞争与出口管制的挑战, NVIDIA 推出专为中国设计的新产品,这些产品不需要出口管制许可证, NVIDIA 预计在中国的数据中心收入将大幅下降。

Hopper GPU 架构推动计算收入增长, Grace Hopper 超级芯片批量出货

NVIDIA Hopper GPU 架构,推动大部分计算收入增长, Hopper 需求持续增长。 NVIDIA 已经开始对 H200 进行采样,预计将在 Q2 进行发货。

H200 推理性能,是 H100 2 倍,这为生产部署带来巨大价值。 NVIDIA 正在通过持续软件优化,提高 AI 基础设施的性能, H100 供应有所改善, H200 供应仍然受到限制。 NVIDIA 正在努力将其系统与云合作伙伴推向全球,以便在 2024 年晚些时候上市。 NVIDIA Grace Hopper 超级芯片,已经开始批量出货,全球有 9 台新超级计算机正在使用 Grace Hopper

InfiniBand SpectrumX 推动网络业务增长

NVIDIA InfiniBand 推动强劲的网络同比增长,预计网络将在 Q2 恢复环比增长。 NVIDIA Q1 开始,推出针对 AI 优化的全新 SpectrumX 以太网网络解决方案,预计 SpectrumX 将在 1 年内成为价值数十亿美元的产品线。

推出下一代 AI 工厂平台 Blackwell ,性能大幅提升

NVIDIA GTC 大会上推出下一代 AI 工厂平台 Blackwell ,训练速度比 H100 4 倍,推理速度比 H100 30 倍。 Blackwell 平台,包括第 5 NVLink 、新的 InfiniBand ,以及以太网交换机 X800 系列。 NVIDIA 推出新的软件产品 NVIDIA 推理微服务 NIMS ,它提供由 NVIDIA CUDA 加速支持的安全、性能优化的容器。

游戏与专业可视化业务表现稳健,汽车业务增长强劲

NVIDIA 游戏业务收入 26.5 亿美元,环比下降 8% ,同比增长 18% NVIDIA GeForce RTX GPU 安装基数已超过 1 亿,非常适合游戏玩家、创作者与 AI 爱好者。

专业可视化 ProViz 业务收入 4.27 亿美元,环比下降 8% ,同比增长 45%

NVIDIA GTC 上,宣布新的 Omniverse Cloud API ,使开发人员能够将 Omniverse 工业数字孪生与模拟技术集成到他们应用程序中。许多公司正在使用 Omniverse 数字化工作流程,如制造合作伙伴纬创与电动汽车制造商比亚迪。

汽车领域, NVIDIA 收入达到 3.29 亿美元,环比增长 17% ,同比增长 11% 。主要受益于全球 OEM 客户对 AI 座舱解决方案的需求增加,以及自动驾驶平台的强大实力。

NVIDIA 成功支持小米推出首款电动汽车 SU7 轿车,基于 NVIDIA DRIVE Orin 打造。

NVIDIA 宣布 DRIVE Thor 多项新设计,计划 2025 年开始量产,是 Orin 继任者,采用新的 NVIDIA Blackwell 架构。

多家领先的电动汽车制造商都采用这款产品,包括比亚迪、小鹏、广汽 IonHyper Neuralink

毛利率扩大,运营费用增加,回报股东 78 亿美元

库存费用的降低, NVIDIA Gap 毛利率环比扩大至 78.4% ,非 Gap 毛利率环比扩大至 78.9%

环比看, Gap 运营费用增长 10% ,非 Gap 运营费用增长 13% ,这主要反映与薪酬相关的成本增加,以及计算与基础设施投资的增加。

Q1 NVIDIA 以股票回购与现金分红形式,向股东返还 78 亿美元。

宣布股票拆分与增加股息, Q2 展望乐观

NVIDIA 宣布对公司股票进行 1 10 拆分, 6 10 日将是拆分调整后第一个交易日。 NVIDIA 将股息提高 150%

展望 Q2 NVIDIA 预计总收入 280 亿美元,上下浮动 2% NVIDIA 预计所有市场平台都将实现连续增长。

预计 Gap 与非 Gap 毛利率分别为 74.8% 75.5% ,上下浮动 50 个基点。

NVIDIA 预计全年毛利率将在 75% 左右。预计 Gap 与非 Gap 运营费用分别约为 40 亿美元与 28 亿美元。

预计全年运营支出将增长 40% 左右。预计 Gap 与非 Gap 其他收入与支出约为 3 亿美元,不包括非关联投资的收益与损失。

预计 Gap 与非 Gap 税率 17% ,上下浮动 1% ,不包括任何单项项目。

黄仁勋财报电话会上发言内容:

NVIDIA 正在引领新工业革命, NVIDIA 正处于下一场工业革命开端。各个企业与国家正在与 NVIDIA 合作,将价值数万亿美元的传统数据中心安装转向加速计算,建设新型数据中心 AI 工厂,以生产新的商品 AI AI 将为几乎所有行业带来显著生产力提升,帮助企业提高成本与能源效率,扩大收入机会。

云服务提供商是第一批推动 AI 发展的公司。 借助 NVIDIA ,云服务提供商加速工作负载,以节省资金与电力。 NVIDIA Hopper 生成的 Token ,为其 AI 服务带来收入。 NVIDIA Cloud 实例,吸引了来自 NVIDIA 丰富的开发者生态系统的租赁客户。 Hopper 平台上对生成式 AI 训练与推理的强劲、不断增长的需求,推动 NVIDIA 数据中心增长。

随着模型学习多模态、理解文本、语音、图像、视频与 3D 并学习推理与计划,训练规模不断扩大。我们推理工作负载正在以惊人速度增长。有了生成式 AI ,推理现在涉及大规模快速生成 Token 变得非常复杂。

生成式 AI ,正在推动从基础开始的全栈计算平台转变,这将改变每一次计算机交互。从今天的信息检索模型, NVIDIA 正在转向计算的答案与技能生成模型。

AI 将理解上下文与 NVIDIA 意图,具有知识、推理、计划、执行任务。 NVIDIA 正在从根本上改变计算的工作方式与计算机功能。从通用 CPU GPU 加速计算,从指令驱动软件到意图理解模型,从检索信息到执行技能。在工业层面,从生产软件到生成 Token ,制造数字智能。

Token 生成,将推动 AI 工厂的多年建设。除了云服务提供商之外,生成式 AI 已经扩展到消费者互联网公司与企业、主权 AI 、汽车与医疗保健客户,创造多个数十亿美元的垂直市场。

Blackwell 平台已全面投入生产,并为万亿参数级生成式 AI 奠定基础。 Grace CPU Blackwell GPU NVLink Quantum Spectrum Nixon 交换机、高速互连以及丰富的软件与合作伙伴生态系统相结合,让 NVIDIA 能够扩展,并为 AI 工厂提供比前几代更丰富、更完整的解决方案。

SpectrumX NVIDIA 开辟全新的市场,将大规模 AI 引入仅限以太网的数据中心。 NVIDIA NIMS NVIDIA 新软件产品,可提供企业级、优化的生成式 AI ,可在任何地方的 CUDA 上运行。通过 NVIDIA 广泛的生态系统合作伙伴网络,从云端到本地数据中心再到 RTX AI PC

Blackwell SpectrumX ,再到 NIMS NVIDIA 已经做好准备,迎接下一波增长的到来。

CFO Collette 财报电话会上发言内容:

Q1 业绩再次创下纪录。收入 260 亿美元,环比增长 18% ,同比增长 262% ,远高于我们 240 亿美元预期。

数据中心开始,数据中心收入创下 226 亿美元纪录,环比增长 23% ,同比增长 427% ,这受益对 NVIDIA Hopper GPU 计算平台的持续强劲需求。

2023 年相比,计算收入增长 5 倍多,网络收入增长 3 倍多。所有类型客户,都推动数据中心强劲增长,企业与消费者互联网公司表现突出。

大型云服务提供商正在持续推动强劲的增长,他们大规模部署,并扩展 NVIDIA AI 基础设施,这占据我们数据中心收入的大约 45%

NVIDIA CUDA 平台上,进行 AI 的训练与推理,正在显著加速云租赁收入增长,为云服务提供商投资带来即时、强劲回报。

NVIDIA AI 基础设施上,每投入 1 美元,云服务提供商有机会在 4 年内获得 5 美元的 GPU 即时托管收入。

NVIDIA 丰富的软件堆栈与生态系统,与云服务提供商的紧密集成,使得最终客户可以轻松在公共云中启动与运行 NVIDIA GPU 实例。对云租赁客户, NVIDIA GPU 提供最佳的训练时间模型、最低的训练成本模型、最低的推理成本大语言模型。对公有云提供商, NVIDIA 将客户带到他们的云端,推动收入增长与基础设施投资的回报。

领先的大语言模型公司, OpenAI ADEPT Anthropic Character AI Cohere Databricks DeepMind Meta Mistral XAI 等,都在云端构建 NVIDIA AI

在本季度,企业推动数据中心强劲环比增长。我们支持特斯拉将其训练 AI 集群扩展到 35,000 H100 GPU 。他们对 NVIDIA AI 基础设施的使用,为他们最新基于视觉的自动驾驶软件 FSD V12 的突破性性能铺平道路。

视频 Transformer 消耗更多计算资源,显著提高自动驾驶能力,推动整个汽车行业 NVIDIA AI 基础设施的显著增长。我们预计,汽车将成为我们 2024 年数据中心内最大的企业垂直行业,为本地与云消费带来数十亿美元收入机会。

消费者互联网公司也是强劲的增长垂直行业。本季度一大亮点,是 Meta 宣布推出最新的大型语言模型 Llama-3 ,该模型在 24,000 H100 GPU 集群上进行训练。 Llama-3 Meta AI 提供支持, Meta AI 是一款可在 Facebook Instagram WhatsApp Messenger 上使用的新型 AI 系统。 Llama-3 已公开可用,已在各行业掀起 AI 开发浪潮。

随着生成式 AI 进入更多消费者互联网应用,我们预计将继续看到增长机会,推理会随着模型复杂性、以及用户数量与每个用户查询数量的增加而扩展,从而推动对 AI 计算的更多需求。

过去 4 个季度中,我们估计推理推动数据中心收入的约 40% ,训练与推理的需求正在显著增长。大型集群,例如 Meta Tesla 所构建的集群,是 AI 生产所必需的基础设施,我们将其称为 AI 工厂。这些下一代数据中心,是先进、全栈、加速的计算平台,数据从这里输入,智能从这里输出。

Q1 ,我们与超过 100 家客户合作,建设规模从数百到数万个 GPU 不等的 AI 工厂,其中一些甚至达到 10 万个 GPU 。地域角度看,随着世界各国对主权 AI 的投资,数据中心收入呈现多样化趋势。

主权 AI ,是指一个国家利用自己基础设施、数据、劳动力与商业网络生产 AI 的能力。 各国正在通过各种模式建设国内计算能力,一些国家正在与国有电信提供商或公用事业公司合作采购与运营主权 AI 云。其他一些国家,正在赞助本地云合作伙伴,为公共与私营部门提供共享的 AI 计算平台。

日本计划向 KBDI Sakura Internet SoftBank 等关键数字基础设施提供商投资超过 7.4 亿美元,以构建该国主权 AI 基础设施。

总部位于法国的 Scaleway ,是 Iliad Group 子公司,正在打造欧洲最强大的云原生 AI 超级计算机。

意大利,瑞士电信集团将建造该国第一台最强大的 NVIDIA DTX 超级计算机,以开发第一个以意大利语为母语的 LLM 课程。

新加坡,国家超级计算机中心正在使用 NVIDIA Opera GPU 进行升级,新加坡电信正在东南亚各地建立 NVIDIA 加速 AI 工厂。

NVIDIA 能够提供端到端计算到网络技术、全栈软件、 AI 专业知识以及丰富的合作伙伴与客户生态系统,使主权 AI 与区域云提供商,能够快速启动国家的 AI 雄心。

2023 年到现在,我们相信主权 AI 收入, 2024 年可以达到数十亿美元。

AI 重要性引起每个国家关注。我们推出专为中国设计的新产品,这些产品不需要出口管制许可证。我们在中国数据中心收入,与 2023 10 月实施新的出口管制限制之前的水平相比大幅下降,我们预计中国市场未来仍将保持非常激烈的竞争。

产品角度看,绝大部分计算收入,由我们 Hopper GPU 架构推动,本季度对 Hopper 需求持续增长。受益 CUDA 算法创新,我们能够将 H100 LLM 推理速度,提高多达 3 倍,这可以转化为 Llama-3 等流行模型提供服务的成本降低 3 倍。

我们 Q1 开始对 H200 进行采样,该产品目前已在生产阶段,预计将在 Q2 进行发货。首个 H200 系统,由黄仁勋交付给 Sam Altman OpenAI 团队,上周该系统为他们 GPT-4o 演示提供强大支持。

H200 推理性能几乎是 H100 2 倍,这为生产部署带来巨大价值。使用具有 7,000 亿个参数的 Llama-3 ,单个 NVIDIA HGX H200 服务器每秒可以提供 24,000 Token ,支持超过 2,400 名用户。意味着,按照当前每个 Token 价格, NVIDIA HGX H200 服务器上每花费 1 美元,提供 Llama-3 Token API 提供商,可以在 4 年内产生 7 美元收入。

我们通过持续软件优化,不断提高 NVIDIA AI 基础设施的性能,以服务 AI 模型。 H100 供应有所改善, H200 供应仍然受到限制, Blackwell 已全面投入生产。我们正在努力将我们系统与云合作伙伴推向全球,以便在 2024 年晚些时候上市。 H200 Blackwell 需求远远超过供应,我们预计 2025 年需求可能会超过供应。

Grace Hopper 超级芯片正在批量出货。上周在国际超级计算大会上,我们宣布全球有 9 台新超级计算机正在使用 Grace Hopper 2024 年交付的节能 AI 处理能力总计达 200 倍,包括瑞士国家超级计算中心 ALPS 超级计算机、欧洲最快的 AI 超级计算机、英国布里斯托大学 Zombard AI 、德国 Julek 超级计算中心的 Jupyter 。其高能效与性能,我们看到 Grace Hopper 在超级计算领域的应用率达到 80%

我们很自豪看到,搭载 Grace Hopper 的超级计算机,在全球最节能的超级计算机中分别占据第一、第二、第三的位置。

强劲的网络同比增长,由 InfiniBand 推动。我们经历适度的环比下滑,主要是供应时机,需求远远超过我们能够发货的数量,我们预计网络将在 Q2 恢复环比增长。

Q1 ,我们开始从头开始推出针对 AI 优化的全新 SpectrumX 以太网网络解决方案。它包括 Spectrum4 交换机、 Bluefield3 DPU 、新软件技术,以克服以太网上 AI 的挑战,与传统以太网相比,为 AI 处理提供高 1.6 倍的网络性能。

SpectrumX 销售额,正在与众多客户共同增长,包括拥有 100,000 GPU 的庞大集群。 SpectrumX NVIDIA 网络开启全新的市场,使得仅依赖以太网的数据中心,也能够容纳大规模的 AI 。我们预计, SpectrumX 将在 1 年内,成为价值数十亿美元的产品线。

3 GTC 大会上,我们推出下一代 AI 工厂平台 Blackwell Blackwell GPU 架构的训练速度比 H100 4 倍,推理速度比 H100 30 倍,支持在万亿参数的大型语言模型上实时生成 AI Blackwell 是一个巨大的飞跃,总体拥有成本 TCO 与能耗比 Hopper 25 倍。

Blackwell 平台,包括第 5 NVLink (带有多 GPU 主干)与新的 InfiniBand ,以及以太网交换机 X800 系列,这些都是专为万亿参数规模的 AI 设计。 Blackwell 旨在为数据中心提供广泛支持,从超大规模到企业级,从训练到推理,从 x86 到高性能 CPU ,从以太网到 InfiniBand 网络,从空气冷却到液冷。

Blackwell 将在发布时,用于 100 多个 OEM ODM 系统,这个数量是 Hoppers 2 倍多,覆盖全球所有主要的计算机制造商。这将支持在第 1 年的出货量中,各种客户类型、工作负载与数据中心环境能够快速广泛采用。 Blackwell 上市时的客户,包括亚马逊、谷歌、 Meta 、微软、 OpenAI 、甲骨文、特斯拉、 XAI

我们宣布推出一款新的软件产品,引入 NVIDIA 推理微服务 NIMS NIMS 在网络计算与推理软件,包括 Triton 推理服务器与 TensorRT LLM 中提供由 NVIDIA CUDA 加速支持的安全、性能优化的容器,以及适用于广泛用例的行业标准 API ,包括用于文本、语音、成像、视觉、机器人、基因组学与数字生物学的大型语言模型。

它们使开发人员能够使用来自 NVIDIA AI21 ADEPT Cohere Steady Images Shutterstock 的领先模型,以及来自 Google PluginFace Meta Microsoft Mistral AI Snowflake Stability AI 的开放模型,快速构建与部署生成式 AI 应用程序。 NIMS 将作为我们 NVIDIA AI 企业软件平台的一部分提供,用于生产、在云端或本地部署。

英伟达游戏与 AI PC 业务。 游戏业务收入 26.5 亿美元,环比下降 8% ,同比增长 18% ,这与我们对季节性下降的预期相符。 GeForce RTX Super GPU 的市场接受度强劲,整个产品系列的终端需求与渠道库存保持健康。

自从我们开始 AI 之旅,我们就为 GeForce RTX GPU 配备 CUDA Tensor 核心。目前, GeForce RTX GPU 安装基数超过 1 亿,非常适合游戏玩家、创作者、 AI 爱好者,并为在 PC 上运行生成式 AI 应用程序提供无与伦比的性能。 NVIDIA 拥有在 GeForce RTX PC 上,部署与运行快速高效的生成式 AI 推理的完整技术堆栈。

TensorRT LLM 已经加速 Microsoft PHY3 Mini 模型,与 Google Gemma 2B 7B 模型,以及流行的 AI 框架,包括 LangCheng Llama Index

NVIDIA Microsoft 宣布针对 Windows AI 性能优化,以帮助在 NVIDIA LLM 上将 LLM 的运行速度提高 3 倍,这是 GeForce RTX AI PC 的一部分。

包括网易游戏、腾讯、育碧在内的顶级游戏开发商,正在采用 NVIDIA Avatar Character Engine 来创建逼真的化身,以改变游戏玩家与非玩家角色之间的互动。

转向专业可视化 ProViz 业务,收入 4.27 亿美元,环比下降 8% ,同比增长 45% 。我们相信生成式 AI 与全宇宙工业数字化,将推动下一波专业可视化增长。

GTC 上,我们宣布新的 Omniverse Cloud API ,使开发人员能够将 Omniverse 工业数字孪生与模拟技术集成到他们应用程序中。一些全球最大的工业软件制造商,正在采用这些 API ,包括达索系统、布兰德与西门子 Antus Cadence 3DEXCITE 。开发人员可以使用它们将工业数字孪生传输到空间计算设备如 Apple Vision Pro Omniverse Cloud API ,将于 2024 年晚些时候在 Microsoft Azure 上推出。

许多公司正在使用 Omniverse 来数字化他们工作流程。 Omniverse 驱动的数字孪生,使我们制造合作伙伴之一纬创,将端到端生产周期缩短 50% ,缺陷率降低 40%

全球最大的电动汽车制造商比亚迪,正在采用 Omniverse 进行虚拟工厂规划与零售配置。

汽车领域,我们收入达到 3.29 亿美元,环比增长 17% ,同比增长 11% 。环比增长主要受益全球 OEM 客户对 AI 座舱解决方案的需求增加,以及我们自动驾驶平台的强大实力,同比增长主要源自动驾驶发展。

我们成功支持小米推出首款电动汽车 SU7 轿车,该款轿车是基于我们 NVIDIA DRIVE Orin 打造,这是我们为软件定义的 AV 车牌开发的 AI 车载计算机。

我们宣布 NVIDIA DRIVE Thor 多项新设计,计划 2025 年开始量产,它是 Orin 继任者,采用新的 NVIDIA Blackwell 架构。多家领先的电动汽车制造商都采用这款产品,包括比亚迪、小鹏、广汽的 IonHyper Neuralink

我们看看损益表其他部分。库存费用的降低, Gap 毛利率环比扩大至 78.4% ,非 Gap 毛利率环比扩大至 78.9% Q4 Q1 ,均受益有利的零部件成本。环比看, Gap 运营费用增长 10% ,非 Gap 运营费用增长 13% ,这主要反映与薪酬相关的成本增加,以及计算与基础设施投资的增加。

Q1 ,我们以股票回购与现金分红形式,向股东返还 78 亿美元。

我们宣布对公司股票进行 1 10 的拆分, 6 10 日将是拆分调整后的第一个交易日,我们将股息提高 150%

谈谈 Q2 前景。我们预计总收入 280 亿美元,上下浮动 2% 。我们预计所有市场平台都将实现连续增长。预计缺口与非缺口毛利率,分别为 74.8% 75.5% ,上下浮动 50 个基点,这与我们上个季度的讨论一致。我们预计全年毛利率将在 75% 左右。预计缺口与非缺口运营费用分别约为 40 亿美元与 28 亿美元。预计全年运营支出将增长 40% 左右。预计缺口与非缺口其他收入与支出约为 3 亿美元,不包括非关联投资的收益与损失。预计缺口与非缺口税率为 17% ,上下浮动 1% ,不包括任何单项项目。更多的财务细节包含在 CFO 评论与我们 IR 网站上提供的其他信息中。

英伟达财报电话会议问答环节

伯恩斯坦 Stacy Raskon 我想深入了解一下 Blackwell 全面投入生产情况。如果该产品已经不再仅是样品,这对于发货与交货时间意味着什么?如果现在已经开始生产,产品何时能够真正到达客户手中?

黄仁勋: 我们已经开始生产一段时间,我们的生产出货量将在 Q2 开始,并在 Q3 增加,预计客户数据中心将在 Q4 建立起来。

伯恩斯坦 Stacy Raskon 我们 2024 年会看到 Blackwell 的收入,是这样吗?

黄仁勋: 是的, 2024 年我们会看到大量 Blackwell 收入。

CBS Timothy R. Curry 我想问黄仁勋关于 Blackwell Hopper 的部署情况。考虑到系统的性质,与你对 GB 的所有需求,这些产品部署与 Hopper 有何不同?我之所以提这个问题,是以前没有大规模的液冷,在节点级别与数据中心内都存在一些工程挑战。这些复杂性是否会延长过渡期,你如何看待这一切的进展?

黄仁勋: 是的, Blackwell 有多种配置。 Blackwell 是一个平台,而不仅是一个 GPU 。这个平台支持风冷、液冷、 x86 Grace InfiniBand Nell Spectrum X ,以及我在 GTC 上演示过的超大 NVLink 域。

对于一些客户来说,他们将逐步加入已经安装 Hoppers 数据中心的现有安装基座。他们将能够轻松从 H100 过渡到 H200 ,再到 B100 Blackwell 系统的设计,在电气与机械方面都具有向后兼容特点。运行在 Hopper 上的软件堆栈,将在 Blackwell 上完美运行。

我们一直在为整个生态系统做好准备,为液冷做好准备。我们已经与生态系统讨论 Blackwell 很长时间。无论是 CSP 、数据中心、 ODM 、系统制造商、我们供应链、冷却供应链基础、液冷供应链基础,还是数据中心供应链基础,没有人会对 Blackwell 到来,以及我们希望通过 Grace Blackwell 200 提供的功能感到惊讶, GB200 将表现得非常出色。

美银证券 Vivek Arya 我想了解,你如何确保你的产品得到充分利用,而不会因为供应竞争激烈或其他因素导致抢购或囤积行为?你在系统中建立了哪些检查机制,让我们有信心货币化能够跟上强劲的出货量增长?

黄仁勋: 我会从大局出发来回答你的问题。

所有数据中心对 GPU 需求都是巨大的,我们每天都在与时间赛跑。这主要是 ChatGPT GPT-4o 等应用程序的需求,现在它们将成为多模态与 Gemini Anthropic ,所有的云服务提供商都在消耗现有的每一个 GPU

还有大量生成式 AI 初创公司,大约有 15,000~20,000 家,涉及各个领域,从多媒体到数字角色,还有各种设计工具应用程序、生产力应用程序、数字生物学。

自动驾驶行业正在向视频转变,以便他们可以训练端到端模型来扩展自动驾驶汽车的操作领域,这个名单非常特别。

我们正在比赛,客户对我们施加很大压力,要求我们尽快交付系统,并使其运行起来。

我还没有提到所有主权 AI ,都希望利用国家的所有区域自然资源,即数据来训练区域模型,建立这些系统的压力很大。

无论如何,我认为需求非常非常高,超过我们供应。

长远看,这就是我跳出来发表一些评论的原因。

长远看,我们正在完全重新设计计算机工作方式。这是一个平台转变,它与过去的其他平台转变相比,时间会清楚证明,这比以前的平台转变要深刻得多。原因是计算机不再是仅由指令驱动的计算机,它是一台理解意图的计算机。它理解我们与它交互方式,它也理解我们意思,我们想要它做什么,它具有推理、迭代推理以处理计划,并返回解决方案的能力。计算机的每个方面都在发生变化,它不再检索预先录制的文件,而是生成与上下文相关的智能答案,这将改变全世界的计算堆栈。

你在 Build 大会上看到,即使是 PC 计算堆栈,也将发生革命性变化。这只是所有事情的开始,人们今天看到的是我们在实验室中开展的工作,以及我们与世界各地所有初创公司、大公司与开发商合作的开始,这将是非常了不起的。

摩根士丹利 Joe Moore 我了解到你对 H200 Blackwell 产品的需求非常强烈。在你转向这些产品过程中,你是否预计 Hopper H100 销售会暂时停滞?人们是否会等待这些新产品上市?这些新产品是否会成为优秀的产品,或者你认为 H100 需求足以维持增长?

黄仁勋: 我们注意到,本季度对 Hopper 需求持续增长。我们预计,随着我们向 H200 Blackwell 过渡,需求将在一段时间内超过供应。每个人都急切希望他们基础设施能够尽快上线,这样可以节省成本,并创造收益,他们希望能够尽快实现这一目标。

高盛 Toshia Hari 我想询问一下关于竞争的问题。我注意到你许多云客户都在宣布他们现有内部程序的新版本或更新,这些都是在与你们合作进行的。中长期内,你在多大程度上将他们视为竞争对手?在你看来,他们是否只是解决大部分内部工作负载,还是在未来有可能解决更广泛的问题?

黄仁勋: 是的,我们在几个方面有所不同。

首先, NVIDIA 加速计算架构,允许客户处理他们管道的各个方面,从非结构化数据处理到准备训练,再到结构化数据处理、数据帧处理如 SQL ,到准备训练、训练、推理。

推理发生了根本性变化,现在是生成。它不仅是试图检测猫,这本身就很难,它必须生成猫的每一个像素。

生成过程,是一种根本不同的处理架构,这也是 TensorRT LLM 如此受欢迎的原因之一。我们在架构上,使用相同芯片的性能提高 3 倍。这在某种程度上说明,我们架构的丰富性与软件的丰富性。

你可以将 NVIDIA 用于从计算机视觉到图像处理、计算机图形到所有计算模式的所有领域。现在,通用计算已经走到尽头,世界正遭受计算成本与计算能源膨胀的困扰,加速计算才是真正可持续的发展方式。加速计算,是节省计算成本与能源的方法。我们平台的多功能性,使数据中心 TCO 最低。

其次,我们在每个云中都有。对于正在寻找开发平台的开发人员来说,从 NVIDIA 开始,始终是一个不错的选择。我们在本地,我们在云端,我们在任何大小与形状的计算机中,我们几乎无处不在,这是第二个原因。

第三个原因,与我们建立 AI 工厂有关。人们越来越清楚认识到, AI 不仅是芯片问题,一切都始于优秀的芯片。

我们为我们 AI 工厂制造大量芯片,但这是一个系统问题。现在的 AI ,也是一个系统问题。它不仅是一个大型语言模型,而是由一系列大型语言模型组成的复杂系统,这些模型需要协同工作。

NVIDIA 构建这个系统的事实,促使我们优化所有芯片,使它们能够作为一个系统协同工作,拥有作为一个系统运行的软件,并能够在整个系统中进行优化。

如果你有一个价值 50 亿美元的基础设施,如果你将性能提高 2 倍,这是我们经常做的,当你将基础设施提高 2 倍时,对你来说价值就是 50 亿美元,数据中心的所有芯片都无法支付这笔费用,它的价值确实非常非凡。

这就是为什么今天,性能至关重要的原因。此时,最高性能,也是成本最低的,承载所有这些芯片的基础设施成本非常高,资助数据中心、运营数据中心、相关人员、相关电力、相关房地产需要大量资金。所有这些加起来,最高的性能,也是最低的总体拥有成本 TCO

TD CowenMatt Ramsey 我的整个职业生涯都在数据中心行业,我从未见过你们以如此快的速度推出新平台,获得如此高的性能提升。训练速度提高 5 倍,你在 GTC 中提到的一些内容,在推理速度上提高 30 倍。

这是一件很神奇的事情,它也创造了一个有趣的对比:客户花费数十亿美元,购买的当前一代产品,竞争力将远远低于新产品,贬值速度比新产品贬值周期快得多。

我想请你谈谈,你如何看待这种情况在客户身上发展。当你转向 Blackwell 时,他们将拥有非常大的安装基础,显然软件兼容,但安装基础庞大的产品性能远不及新一代产品。听听你看到客户在这条道路上发生了什么,这很有趣。

黄仁勋: 是的,我非常感激,我想提出三点。

如果你的建设进度为 5% ,而如果你的建设进度为 95% ,你的感受将大不相同。你只完成了 5% ,无论如何,你都要尽可能快进行构建。

Blackwell 到来时,它会非常棒。在 Blackwell 之后,我们还会推出其他 Blackwell

我们以 1 年为周期,正如我们向世界解释的那样。我们希望我们客户能够看到我们尽可能远的路线图,他们无论如何,都处于建设早期阶段,他们必须持续进行建设。

确实如此,大量芯片将会向他们涌来。他们需要继续建设,如果你愿意,可以选择以平均性能的方式进入,这无疑是一个明智的选择。

他们需要在今天就开始盈利,也希望能够节省开支。对他们来说,时间的价值,实在是无法估量。

让我给你举一个例子来说明时间重要性,这就是为什么建立即时数据中心的想法如此有价值,以及为何获得所谓的训练时间如此重要。

原因在于,下一家达到重大平台的公司,可以宣布一项突破性 AI ,紧随其后的第二家公司可能只能宣布一项改进了 0.3% 的成果。

问题在于,你是想成为一个不断提供突破性 AI 的公司,还是一个只能提供 0.3% 改进的公司?这就是为什么这场竞赛,就像所有的技术竞赛一样,如此重要。

你会看到这场竞赛涉及到多家公司,拥有技术领导力至关重要。公司需要信任领导力,想要在你的平台上构建,并知道他们正在构建的平台会越来越好,领导力至关重要。

训练时间同样重要,训练时间的关键在于,能否提前 3 个月完成一个为期 3 个月的项目,提前开始是最重要的。这就是为什么我们现在正在疯狂建立漏斗系统,下一个平台就在眼前,这是第二个原因。

你提出的第一个评论确实很棒,那就是我们为什么能够如此快速地发展与进步?我们拥有所有堆栈,我们实际上构建了整个数据中心,我们可以监控一切、衡量一切、优化一切。我们知道所有瓶颈在哪里,我们不会对此进行猜测,我们不会只是制作看起来不错的 PowerPoint 幻灯片。

我们希望我们 PowerPoint 幻灯片看起来不错,我们提供的是可大规模执行的系统。我们之所以知道它们可大规模执行,是我们在这里构建了一切。

现在,我们所做的一件有点神奇的事情是,我们在这里构建了整个 AI 基础设施,我们将其分解,并集成到客户的数据中心中,无论他们喜欢什么。

我们知道它将如何执行,我们知道瓶颈在哪里。我们知道需要在哪里与他们一起优化,也知道在哪些方面,需要帮助他们改善基础设施,以实现最佳性能。这种对整个数据中心规模深入、细致的了解,从根本上使我们今天与众不同。

我们从头开始构建每一个芯片,我们确切知道整个系统的处理过程。我们确切了解它将如何执行,以及如何在每一代中最大限度地利用它。

我很感激,这就是三点。

Evercore ISI Mark Lopakis 过去,你曾观察到通用计算生态系统通常主导每个计算时代。我坚信,通过适应不同工作负载,我们可以提高利用率,降低计算周期的成本。

这也是我推动通用图形处理器 GPU CUDA 生态系统进行加速计算的动机。如果我对这个观察有误解,请纠正我。

我有一个问题,考虑到推动你解决方案需求的工作负载,主要是由神经网络训练与推理驱动的,表面上看,这似乎是有限数量的工作负载,它似乎也适合定制解决方案。

通用计算框架,是否会变得更危险?或者,这些工作负载是否有足够的变化或足够快速的演变,来支持历史通用框架?

黄仁勋: 是的,这些加速计算是多功能的,我不会称其为通用。

例如,我们并不擅长运行电子表格,这实际上是为通用计算设计的。操作系统代码的控制循环,可能不适合通用计算,也不适合加速计算。我会说我们是多功能的,这通常是我描述它的方式。

多年来,我们能够加速的应用领域非常丰富,它们都有很多共同点。也许有一些深刻的差异,但都是共同点,它们都是我可以并行运行的东西,它们都是高度线程化的。例如, 5% 的代码代表 99% 的运行时间,这些都是加速计算的属性。

我们平台的多功能性,以及我们设计整个系统的事实,是在过去 10 年左右时间里,你们在这些电话会议中询问我的初创公司数量相当多的原因。

它们架构的脆弱性,每当生成式 AI 出现,或者当扩散模型出现时,下一个模型就会出现。

现在,突然间,看看这个,具有内存的大型语言模型。大型语言模型需要有记忆,这样它们才能与你进行对话,理解上下文。突然之间, Grace 内存的多功能性变得非常重要。

生成式 AI AI 发展中的每一个进步,都要求不要只为一个模型设计一个部件,而要有一个真正适合整个领域、整个领域的属性,但又遵循软件第一原则的东西,该软件将继续发展。

该软件将不断变得更好、更大,我们相信这些模型的扩展。有很多理由可以解释,为什么我们将在未来几年内轻松扩展 100 万倍,我们对此充满期待,并为此做好准备。

我们平台的多功能性,确实非常关键,它不是 …… 如果你太脆弱、太具体,你不妨只构建一个 FPGA ASIC 或类似东西,这几乎不能算作计算机。

Jeffries Blaine Curtis 我有点好奇,供应受限,你如何看待 …… 你为中国推出一款 H20 产品。我预设该产品需求量会很大,显然你正在尝试使用其他 Hopper 产品来满足你的客户需求。

我对你如何规划下半年业务感到好奇,如果你能详细说明任何可能的影响,以及你对销售与毛利率的看法,我将不胜感激。

我想了解 H20 以及你如何在不同的 Hopper 产品之间分配供应。

黄仁勋: 我们尊重每一位客户,致力为他们提供最优质服务,我们在中国业务规模已经远低于过去。我们技术的限制,现在在中国竞争更加激烈。如此,我们将继续尽最大努力为那里客户与市场提供服务,尽我们最大努力做到最好。我认为总体而言,我们关于需求超过供应的评论是针对整个市场,尤其是年底的 H200 Blackwell

Raymond James Sreeni Pazhuri 我需要你进一步澄清一下你的观点。 GP200 系统,看起来对系统需求很大。历史上看,我认为你已经销售很多 HGX 主板与一些 GPU ,系统业务相对较小。

我很好奇,为什么现在你看到对系统的需求如此强劲?这只是 TCO ,还是其他原因,还是只是架构?

黄仁勋: 我们销售 GP200 的方式是一样的,我们将所有有意义的组件分解,并将其集成到计算机制造商中。

2024 年,我们将为布莱克威尔提供 100 种不同的计算机系统配置,这超出了预期。坦率说, Hopper 只拥有一半市场份额,那已经是巅峰。它一开始的市场份额,甚至比这还要少。

你会看到液冷版本、风冷版本、 x86 版本、 grace 版本等,正在设计的系统种类繁多。它们由我们所有优秀的合作伙伴生态系统提供,实际上什么都没有改变。

现在, Blackwell 平台,极大扩展我们产品范围。 CPU 的集成与更紧凑的计算密度、液冷,将为数据中心节省大量电力配置成本,更不用说更节能了,这是一个更好的解决方案。

它更具扩展性,这意味着我们提供更多数据中心组件,每个人都是赢家,数据中心的性能得到提高。

网络,从网络交换机到网络,还有 NIC 。我们现在有了以太网,这样我们就可以将 NVIDIA AI 大规模带给只知道如何操作以太网的客户,他们拥有生态系统。

Blackwell 的扩展性更强,在这个时代,我们为客户提供更多服务与产品。

Truist Securities William Stein 有一段时间,市场上有相当优秀的 CPU 可供数据中心运营, NVIDIA 决定,基于 ARM Grace CPU 提供一些真正的优势,使得这项技术值得交付给客户,这可能与成本有关,或者与 Grace Hopper 、或 Grace Blackwell 之间的功耗或技术协同作用有关。

你能否谈谈在客户端,是否可能出现类似的况,即有非常好的解决方案,但你强调英特尔与 AMD 是非常好的合作伙伴,并在 x86 中提供出色的产品。

可能也有一些优势,特别是在新兴 AI 工作负载中, NVIDIA 可以提供一些优势,其他公司面临更大的挑战。

黄仁勋: 你提到一些非常好的理由。

对于许多应用程序而言,我们与 x86 合作,我们 x86 合作伙伴非常棒,我们共同构建了出色的系统。

Grace 使我们能够做一些在今天的配置、系统配置下,不可能做到的事情。 Grace Hopper 之间的内存系统是连贯、连接的。

两个芯片之间的互连,称之为两个芯片,几乎很奇怪,它就像一个超级芯片,它们两个通过这个接口连接,这相当于每秒 1TB ,这超出了图表。

Grace 使用的内存是 LPDDR ,这是第一个数据中心级低功耗内存,我们在每个节点上节省大量电量。

最后,架构的原因,我们现在可以用整个系统创建自己架构,我们可以创建具有非常大的 NVLink 域的东西,这对于下一代大型推理语言模型至关重要。

你看到 GB200 有一个 72 节点的 NVLink 域,这就像 72 Blackwell 连接在一起,形成一个巨大 GPU ,我们需要 Grace Blackwell 才能做到这一点。

有架构原因,有软件编程原因,有系统原因,这些对于我们以这种方式构建它们至关重要。如果我们看到这样的机会,我们会探索它。

今天,正如你在昨天的构建中看到的,我认为这真的很棒, Satya 宣布下一代 PC Copilot Plus PC ,它在笔记本中出货的 NVIDIA RTX GPU 上运行得非常出色。但是,它也很好支持 ARM 。它为系统创新,甚至为个人电脑创新开辟了机会。

Candor Fitzgerald CJ Mews 我知道 Blackwell 还未发布,显然投资者都是有远见的,他们面临着来自 GPU 与定制 ASIC 的潜在竞争。

你如何看待 NVIDIA 未来创新速度?过去 10 年,你的规模扩大数百万倍,这确实令人印象深刻。 CUDA 、稀疏性、精度、优雅性、连贯性、连通性。展望未来,未来 10 年需要解决哪些摩擦?我想也许更重要的是,你今天愿意与我们分享什么?

黄仁勋: 我可以宣布,继 Blackwell 之后,我们还有另一款芯片在研发中。我们正处于 1 年一个新产品节奏中,你可以期待我们将以非常快速度推出新的网络技术。

我们已经宣布推出用于以太网的 Spectrum X ,我们全力投入以太网研发,我们有一个令人兴奋的以太网路线图。

我们拥有丰富的合作伙伴生态系统,戴尔已经宣布他们将把 Spectrum X 推向市场。我们拥有丰富的客户与合作伙伴生态系统,他们将宣布把我们整个 AI 工厂架构推向市场。

对于想要获得最高性能的公司,我们有 InfiniBand 计算结构。 InfiniBand 是一种计算结构,以太网是一种网络。

多年来, InfiniBand 最初是一种计算结构,后来成为一种越来越好的网络。以太网是一种网络,借助 Spectrum X ,我们将使其成为一种更好的计算结构。

我们全力投入到这三个环节:用于单个计算域的 NVLink 计算结构、 InfiniBand 计算结构、以太网网络计算结构,我们将以非常快速度推动这三方面发展。

你将看到新的交换机、新的网络接口卡 NIC 、新功能,以及在这三方面运行的新软件堆栈。新 CPU 、新 GPU 、新网络 NIC 、新交换机,大量新的芯片即将问世。所有这些,最美妙之处在于它们都运行 CUDA 。所有这些,都运行我们整个软件堆栈。

如果你今天投资我们软件堆栈,不用做任何事情,它就会变得越来越快。如果你今天投资我们架构,不用做任何事情,它就会进入越来越多的云与越来越多数据中心,一切都会运行。

我认为我们带来的创新步伐,一方面会提高能力,另一方面会降低总体拥有成本 TCO 。我们应该能够利用 NVIDIA 架构,来扩展新的计算时代,开启这场新的工业革命,我们不仅制造软件,还制造 AI Token ,我们将在大规模上实现这一目标。

黄仁勋最新万字专访:我直接管理 60 个高管,不建议 1V1 开会,很少裁人

时间: 2024 5 22

来源:腾讯科技

字数: 11,772

在近期举办的 Stripe Sessions 用户大会上,移动支付巨头 Stripe 联合创始人、 CEO 帕特里克 · 克里森 Patrick Collison ,与英伟达 CEO 黄仁勋进行了一场炉边对话。

黄仁勋与 Patrick Collison 对话全文

Patrick Collison 黄仁勋已经担任英伟达 CEO 长达 31 年,这使他成为科技行业里任期最长的 CEO 之一,相比之下,我与 Stripe 联合创始人 John Collison Patrick Collison 弟弟)的 CEO 经验还不足他一半。即使我们任期加倍,依然难以企及黄仁勋高度。

我们将探讨有关教育话题,黄仁勋曾在肯塔基州 Onita Baptist Institute 接受教育,随后在俄勒冈州立大学深造,并在丹尼餐厅 Denny's 有过当服务员经历,那家餐厅恰巧离这里不远。

他曾在美国大规模集成电路逻辑公司 LSI Logic AMD 工作,英伟达 1993 年创立, Stripe 2011 年成立,当时英伟达市值仅 80 亿美元,如今这一数字已经增长 200 多倍。他的职业生涯一直充满活力,你之前看过我们做的主题演讲吗?

黄仁勋: 看过,我以前从未见过像你们这样默契的双人演讲对话,你们之间的协调与了解令人惊叹,我确实有些熟悉的感觉。

Patrick Collison 你可是主题演讲的专家,请给我们一个评价,我们在这方面还是业余爱好者。

黄仁勋: 你们还很年轻,有很大成长空间,我觉得你们表现可以打 A+ 。我非常欣赏你们对 Stripe 目标的清晰阐述,了解是什么激励着你们,是什么让你们如此努力工作。

你们所服务的生态系统,建立的令人难以置信的平台,以及为世界经济做出的巨大贡献,都让人印象深刻。

涉及的技术、未来趋势与资金流动等方面,我并不完全了解,但你们提到的 KYC 个人信息验证等概念,让我深受启发。

世界上最出色的浴室清洁工

Patrick Collison 对于软件定义金融服务这一理念,你认为它有意义吗?

黄仁勋: 我认为这是一个极具前瞻性的想法。

Patrick Collison 你知道这个理念是如何诞生的吗?

黄仁勋: 如果你愿意分享的话,我很愿意倾听。我特别欣赏的是,你从一开始就认识到金融支付的本质是代码,而非单纯金融交易。这个观点让我深感震撼,我记得你第一次向我们解释时,我就有了这样的感受。

Patrick Collison 那次交流发生在大约 18 个月前,距离我们上次交谈已经有一段时间了。你可能想知道 Stripe 最新进展。我在解释时,你曾说:这就像软件定义的网络,但它是为了钱。这个想法一直在我脑海中回响,这就是软件定义金融服务这一理念的由来。

黄仁勋: 对于软件定义金融服务这个主意,我真心希望我们不必支付任何许可费或股权。

Patrick Collison 特斯拉最近公布财报,马斯克表示特斯拉 2024 年底将拥有 8.5 万个 H100 。这不禁让我感叹,能建立起这样一个备受瞩目、企业间争相合作的企业,真是非凡的成就, CEO 们竞相宣布谁买了更多你们产品,这确实是一种成功,我认为你们做了一些非常了不起的事情。

黄仁勋: 我的许多 CEO 朋友们,都热衷于获取尽可能多芯片。

Patrick Collison 我想深入了解一下你在斯坦福活动中提到的那句话:我祝愿你们经历足够多的痛苦与磨难,能否为我们详细解释一下这句话背后的含义?

黄仁勋: 这里存在一个常见的误解,即人们常常将激情与快乐等同起来,我认为这种观点并不全面。

激情重要,但如果你想要成就一番伟大的事业,比如 Stripe 这样的公司,需要经历各种挑战与困难。

你是世界上最出色的 CEO 之一,年纪尚轻,你已经展现出非凡的才华与领导力。

我知道,建立伟大的事业并不容易,需要付出巨大努力与牺牲。当你面对这些困难时,你可能不会总是感到快乐,这正是成长的过程。

我并不是每天都喜欢我的工作,也不是每年都对公司进展感到满意,但我深爱这个公司,每一刻都是如此。

我认为,人们常常误解工作的真正意义。最好的工作,并不是让你一直感到幸福工作,而是让你经历挑战、不断成长,与超越自我的工作。

你需要经历痛苦与挣扎,才能真正欣赏你所做的事情。没有什么伟大的事情,是容易做到的。我祝愿你们能够拥有伟大的事业,这意味着你们将经历很多痛苦与挣扎。但正是这些经历,将塑造你们成为更强大、更成熟的人。

Patrick Collison 你的成长经历,是否让你形成这样的想法,还是这本来就是你天生的信念?

黄仁勋: 我想分享一些我从未向外界透露过的经历,甚至我的家人也未必知晓。

作为一个移民,我在 1973 年来到这个国家,那时我 9 岁,我哥哥快 11 岁。面对一个全新的环境,一切都不容易。我们父母非常了不起,我们并不富裕,他们努力工作,为我们树立榜样。他们通过辛勤工作,传递很多人生经验。我也做过各种各样工作,从学校家务活,到 Denny's 餐厅的服务员。

我所在学校是一个寄宿学校,有很多家务活要做,而是学校里最小的孩子,当其他孩子都去烟草农场工作时,我得到简单的工作。

我只有 9 岁,他们离开后,我得清理所有厕所。我从来没有觉得自己得到简单的工作,他们留下的东西 …… 。但那是我的工作,我做得很仔细。

我还有很多其他工作,包括丹尼餐厅,我开始是洗碗工,后来成为清洁工,最后成为服务员。

我热爱每一份工作,总是努力做到最好。这些经历,让我懂得努力与坚持的重要性,也许这就是我从一开始就坚信的理念。我敢肯定的说,我一定是世界上最出色的浴室清洁工。

60 个直接下属,减少七个管理层级

Patrick Collison 聊聊现在的英伟达,你的领导团队规模有多大?

黄仁勋: 英伟达的领导团队,目前有 60 位成员。

Patrick Collison 他们都是直接向你汇报工作?

黄仁勋: 他们都是我的直接下属,直接向我汇报工作。

Patrick Collison 这在管理实践中,通常并不被推崇。

黄仁勋: 我完全理解这一点,我坚信这是最适合我们的模式。

首先,我认为公司内部的层级结构,对于信息传递至关重要。我坚持认为,每个人对公司工作的贡献,不应基于他们对信息的特权访问。

我避免一对一会议,尽可能将所有信息分享给团队中每个人。这是公司所面临的挑战,是我试图解决的问题,也是我们试图努力的新方向。

我认为每个人,都应当有权利接触到公司所有重要信息。我热衷看到我们团队像一个交响乐团一样,共同奏响同一首曲目,没有信息的特权阶层,而是我们齐心协力,共同面对与解决问题。

60 位团队成员齐聚一堂,每隔一周召开一次会议时,我们总是围绕我们面临的核心问题展开讨论。每个人都积极参与其中,了解问题根源,共同探索解决方案,确保信息的透明与共享。

这种方式,极大激发团队成员潜力,我深信,当每个人都能平等访问信息时,我们将汇聚成一股强大的力量,共同推动公司发展。

这是赋权的核心,也是第一点。

第二点,如果 CEO 直接下属有 60 人,这实际上减少公司内部大约七层管理层级。

Patrick Collison 我理解这一点,这里有个问题。是每一层都有 60 人,还是只有 CEO 这一层有 60 人?如果我是某个部门主管,我是这 60 人之一,我是否也会有 60 个直接下属?

黄仁勋: 我明白你的疑问。我认为,这种向下扩展的模式不可持续,随着层级增加,所需的监督也会增多。在英伟达,经理级别的员工,确实需要承担大量管理工作。

Patrick Collison 我很少需要为传统的管理智慧辩护,站在对立角度,一对一会议通常是用来提供指导、讨论目标,包括个人目标与职业发展,以及给予针对性反馈的场所。你不这么做吗?或者你有其他方式来实现这些目标?

黄仁勋: 你提出很好的问题。我确实在给予反馈,我是当着所有人面进行。我认为这样做非常重要,反馈本质上是一种学习机会,为什么只有一个人应该从这个经验中受益?

你某种错误或不当行为,导致某种情况,我们所有人都应该从中汲取教训。在团队面前讨论这个问题,有助于每个人学习如何避免类似错误。

我认为,剥夺他人从错误中学习的机会,不明智。从他人错误中学习,是最好的学习方式。这就是为什么我们进行案例研究,试图从他人灾难与悲剧中汲取教训。

Patrick Collison 你是否已经成功在英伟达的其他领导层,推广这种管理实践?或者你预见到其中的困难了?

黄仁勋: 我给予团队成员充分的自由去解读与实践,我确实不推荐一对一会议。我极力避免一对一沟通,没有什么比黄仁勋希望我们这样做更让我抓狂的。信息应该是公开的,每个人都应该知晓。如果有人私下传达什么,那真的让我很烦恼。

Patrick Collison 你之前提到,你并不喜欢解雇人,也很少这样做。能具体谈谈吗?

黄仁勋: 我更倾向帮助人成长与改进,而非简单放弃。解雇某个人,某种程度上,意味着在说这不是你的错,或我做了个错误的决定。

我认为,很少有人天生就不能胜任某项工作。我曾打扫过厕所,如今却成了公司 CEO 。我坚信,只要给予机会,每个人都能学习与成长。我周围有很多聪明人,他们总是在做一些出色工作,我从他们每个人身上都学到很多。

我不喜欢放弃别人,我相信他们可以变得更好。这听起来可能有些玩笑的意味,但人们都知道,我更愿意磨砺他们,使他们变得伟大。

Patrick Collison 这确实是你之前提到过的观点,我印象很深刻。

黄仁勋: 是的,我宁愿磨砺你,使你变得伟大,我信任你。

我相信,真正相信团队的领导者,会倾尽全力磨砺他们,使他们变得伟大。有时,成功就在眼前,不要轻言放弃。伟大往往是在不经意间降临的,你可能昨天还一无所知,突然有一天就豁然开朗。你能想象在那一刻之前,放弃的感受吗?我不会让你放弃,我会继续磨砺你。

时刻想着工作,担心吵醒狗狗延迟起床

Patrick Collison 你如何看待工作与生活平衡?

黄仁勋: 我认为我的工作与生活平衡得很好。我全力以赴工作,我热爱它。你似乎想要评判下我的生活?我年龄比你大,经验比你丰富。

Patrick Collison 我认为这些都是我们对话的亮点,更多的人应该听到。

黄仁勋: 我从早上醒来那一刻就开始工作,直到晚上上床睡觉,我一周工作 7 天。当我不在工作时,我仍然会思考工作,当我在工作时,我就全身心投入工作。

即使我看电影,我也可能一直在想工作的事情,以至忘记电影内容。我的工作并非只是解决日常问题,更多是思考公司未来,或者我们是否可以做得更好。

有时是在尝试解决问题,有时是在想象未来,尝试新的可能。这个过程充满幻想,有时就像白日梦,实在太不可思议了。

Patrick Collison 具体来说,你一天是如何度过的?

黄仁勋: 我过去常常早上 5 点醒来,最近,家里狗狗总是在早上 6 点醒来,我被迫调整自己生物钟。它们似乎决定 6 点是它们应该起床时间,我也只好随它们节奏。

不知道为什么,我不介意叫醒任何人,但我觉得叫醒小狗,会让我感到内疚,这实际上让我很烦恼。

我不想移动,你知道它们会注意到家里任何震动,这会吵醒它们。我会在床上阅读,直到 6 点起来。

Patrick Collison 你会常常思考 GPU 吗?

黄仁勋: 我对 GPU 充满热情,它几乎占据我全部思考空间。

Patrick Collison 在你日常工作中,你主要做些什么?

黄仁勋: 我总是沉浸在这些思考中,我一天基本上被小组会议填满,我坚信集体智慧的力量,避免一对一会议的局限。我会在上班前处理好一些事务,到了办公室,大部分时间都用于会议。

Patrick Collison 你通常一天要参加多少会议?

黄仁勋: 几乎是全天都有会议,我会选择对我而言真正重要与有价值的会议。我尽量避免常规性报告会议,公司里有许多才华横溢的人才能够处理日常运营。

作为 CEO ,我更倾向关注其他人难以解决或尚未解决的问题,以及具有创新性与前瞻性的项目。

我主要参加的是问题解决会议、创意会议,以及头脑风暴会议等。我努力掌控自己时间,不让 Outlook 成为我生活的全部。

Patrick Collison 你曾经提及零亿美元市场的概念,并将其视为你的偏好,能否解释一下这个概念?

黄仁勋: 我们目标应该是开创前所未有事业,这些事业可能极具挑战性,一旦成功,将产生巨大价值。

我热衷于这样的挑战,相比在现有市场中争夺份额,我更享受创造全新市场的过程。

一个零亿美元市场,意味着这是一个全新领域,没有人尝试过,充满无限可能。我坚信,我们有能力开创这样市场,并为世界带来真正贡献。

Patrick Collison 我们使命是增加互联网 GDP ,关键在于,我们不仅要关注互联网 GDP 的现有规模,更要思考哪些交易与企业尚未出现。世界 GDP 庞大,它仍有巨大增长潜力,可能达到 200 万亿美元或 1,000 万亿美元。

黄仁勋: 我完全同意,在未来几十年里,我们创造的大部分价值可能不会受到物理世界的限制,这是充满无限可能的时刻。

Patrick Collison 基于这个零亿美元市场的概念,如果我带着一个全新的项目提案来到英伟达,这个项目可能需要巨额资本投入、多年努力,并且目前没有明确客户需求与市场验证,我们凭直觉认为它值得追求,你们会如何考虑?

黄仁勋: 这样的提案,确实具有挑战性。

直觉只是起点,它为我们提供一个初步的方向与假设。之后,我们需要进行深入思考与推理,来验证这个假设。

对我来说,推理的过程,比任何数据或表格都更重要。我更看重的是你思考过程、你的直觉来源,以及你为什么认为这个项目如此重要与具有挑战性。

我喜欢困难的项目,它们需要长时间努力与坚定信念。如果一个项目真的很难完成,需要多年投入,它就需要一个非常有韧性、专注与信念坚定的人,去追求它。

花了 10 年打造 CUDA 平台

Patrick Collison CUDA 诞生背后,有哪些故事?

黄仁勋: CUDA 的诞生,源于两个核心想法。

首先,我们发明加速计算 Accelerated Computing 的概念,它代表一种新型的 IO 设备,让应用程序能以更高效方式与之交互,进而加速应用程序的特定部分。这一概念的起源,可以追溯到 1993 年,它允许软件程序员直接为 IO 设备编程, IO 设备的虚拟化特性,使得多代之间保持架构的兼容性。

我们称之为统一驱动程序架构 Unified Device Architecture ,几年后决定进一步推动 GPU 的高级编程语言可编程性,发明 CGC for Graphics

CG 编程模型并不完美,我们扩展它,最终孕育出 CUDA Compute Unified Device Architecture 计算统一设备架构。这就是 CUDA 起点,故事听起来有些曲折,它是我们实现愿景的关键一步。

Patrick Collison CUDA 的推出,是否立即获得市场的热烈响应?

黄仁勋: 不,它的推出实际上是一场灾难。

Patrick Collison 考虑到 CUDA 是你们追求的零亿美元市场之一,但却成了灾难?

黄仁勋: 是的,我们在追求零亿美元市场时,面临巨大挑战。追求这个市场的成本太高,以至它摧毁了我们原本享有的 10 亿美元市场。

CUDA 的引入,为我们芯片增加成本,当时并没有足够应用程序来支撑。缺乏应用程序,导致客户不重视这个产品,不愿为此支付溢价,我们成本却在上涨,导致我们毛利率受到挤压,市值一度降至非常低的水平,我记得大约是 10 亿美元左右。

Patrick Collison 面对这样的困境,你是否考虑过放弃 CUDA ,回归原先的战略?

黄仁勋: 没有,我从未考虑过放弃,我坚信我们推理与愿景。我们真的相信加速计算,能够解决传统计算机无法解决的问题。如果我们想要将架构扩展到更通用的目的,我们就必须做出牺牲。我深信我们公司使命,我看到其中蕴藏的巨大机会。我知道我们方向是正确的,只是需要时间证明。

Patrick Collison 分析师与董事会当时可能并不这样认为,你们摧毁现有收入流,你们炒作的这个东西,你们兜售的看似崇高的梦想,似乎没有人真的想要,业务受到很大影响。他们对你决策提出质疑,你是如何坚持自己信念?董事会在这期间给你施加压力了吗?

黄仁勋: 我每次谈话,都从我深信不疑的事情开始,他们信任我,我展现出坚定信念,这份信念源于深思熟虑。这不是简单的口头承诺,而是需要他们相信我的推理与言辞。

Patrick Collison CUDA 的成效显现,花了多长时间?

黄仁勋: 大约 10 年。

Patrick Collison 10 年,几乎占去你任期 1/3 时间。

黄仁勋: 是的,中间充满起伏波折,我几乎已经淡忘了苦楚。你明白我所经历的挑战,我更愿意向前看,困难如今已化为过眼云烟。

Patrick Collison 你认为英伟达能否在没有 CUDA 情况下,在 AI 领域取得如此巨大成功?

黄仁勋: 不可能, CUDA 是现代计算领域最重要的发明之一。我们率先提出加速计算概念,这个理念简单,影响深远。它表明,程序代码中,只有一小部分占据绝大部分运行时间,这对于许多关键应用都是成立的。

我们可以通过加速核心部分,来极大提升整体性能,这个过程并非单纯的并行处理,它涉及更为复杂的机制。

核心思想在于,我们能够将软件中关键部分加速到极致。今天,随着摩尔定律放缓, CPU 性能提升已经趋于停滞。

如果我们不能加速每个软件,计算成本将会飞涨,全球计算需求每年都在翻倍。如果通用 CPU 与计算机性能没有提升,替代方案就是加速计算。

Patrick Collison 在座每一位都经营着企业,都在追求加速一切的目标。今天可能是你们第一次听到这样的观点,或许每个人都在探索类似 CUDA 的技术或策略,市场尚未充分意识到其潜力。你认为我们能否提炼出某种通用原则,来判断何时应该坚定信任某个愿景,以及何时或许需要重新考虑?

黄仁勋: 这是一个重要的问题。决心与执着,与固执之间的界限,往往模糊不清。我每天都会用我的核心信念,来检验自己决策,现在依然如此,你们也应该这样做。

首先,你们需要明确制定策略的基本原则。这些原则,应该简单明了,易于记忆,并且清单不宜过长。

然后,你们需要思考这些原则,是否因外部条件变化而不再适用?是否有人已经解决这个问题,使得这个问题不再存在?你们是否在推理过程中,考虑永远不会有市场需求的情况?

你们需要不断审视这些问题。

首先,你们必须非常谨慎归纳出第一原则,而不是坚持固执己见。你们不能仅凭主观愿望推理,我们需要理性思考。

其次,你们必须足够聪明,要找到即使是小规模实现 CUDA 盈利的方法。我们找到 CT 重建、地震处理、分子动力学等多个领域应用,这些没有立即成为主导市场的产品,它们足以维持我们发展,为我们争取宝贵的时间。

预计 10 年内, Token 将产生 100 万亿美元价值

Patrick Collison 我们深入探讨 AI 领域进展。假设现今全球所有 GPU 总计算能力 X ,你认为在未来 5 年内,我们会达到 X 的多少倍?

黄仁勋: 让我们从几个关键点出发,来推理。

首先,全球数据中心的投资已达约 1 万亿美元,这些数据中心主要用于通用计算,通用计算已逐渐接近其极限。

为了处理日益增长的数据量,世界将需要加速数据处理。当这一加速发生时,每个数据中心、每台计算机,都将升级为加速服务器。

考虑到当前全球计算机总价值约为 1 万亿美元,如果在未来 4~6 年内我们没有任何增长,仅为了维持当前水平,我们就需要更换价值 1 万亿美元的计算机。

若计算机行业,继续以约 20% 年增长率发展,接下来几年里,我们可能需要投入约 2 万亿美元来更换这些计算机,用加速计算来替代传统的通用计算。

我们正在经历一场前所未有的工业革命,这次工业革命核心在于我们首次大规模生产一种全新的东西 Token

这些 Token ,即浮点数,具有巨大价值,它们代表着智能,即 AI 。它们可以被重新组合,转化为语言、蛋白质、化学品、图形、图像、视频、机器人驱动等多种形式。我们正在以前所未有的规模生产 Token ,通过 AI 发现了几乎任何类型 Token 的生产方式。世界将生产大量 Token ,这些 Token 将在新型的数据中心,我们称之为 AI 工厂中生产。

上一次工业革命中,水被注入机器,转化为蒸汽,进而驱动电子流动,原子进入循环,电力作为最终产物输出。在当时,电子的价值尚未被普遍认知,如今,电力已成为我们生活中不可或缺的一部分,被量化,并以千瓦时为单位进行交易。

类似地,我们正处在新的工业革命浪潮之中,电子成为输入,浮点数作为智能的载体被生产出来。如同电力在上个世纪普及过程,当前 Token 对于许多人而言,或许同样难以完全理解潜在价值。

未来 10 年内,随着 Token 在各个领域内创造新产品、新服务,提升行业生产力,预计产生高达 100 万亿美元价值,这一变革将成为常态。

面对这样的行业前景,一个高效、安全的支付平台,变得至关重要。我要特别提及 Stripe ,它是我极为欣赏的公司之一。

初次接触时, Stripe 概念显得颇为复杂,其所蕴含的创新与潜力令我深受启发。你们所打造的这一平台,无疑将在这个新时代变革中,占据举足轻重地位。

Patrick Collison 关于 Token 工厂,我深感好奇的是模型是否会饱和。

例如,我们最近在舞台上展示 Sigma 助手,它能将自然语言转换为 SQL 。从 70 亿参数的模型,到 700 亿参数的模型,我们看到显著的准确率提升。

是否使用比那大 10 倍的模型,真的必要?某个点上,模型可能已经足够好,足以可靠将自然语言转换为 SQL 。你如何看待这个饱和曲线?多少用例需要一个 1 万亿参数的模型或 10 万亿参数的模型?

黄仁勋: 这是一个值得深入探讨的问题,我们可以从一些实例出发来探讨。

2012 AlexNet 为例,它是计算机视觉 ImageNet 图像识别的模型,准确率约为 82% 。在接下来大约 7 年里,准确率每年几乎翻倍。换句话说,模型性能、准确率与可信度,都在不断提高。现在,它已经超越人类识别能力。

类的情况,发生在语音识别与自然语言理解领域。这个行业,将不断追求更高的可信度与准确性。我坚信,在未来自然语言理解领域,我们也会看到类似进步。

问题远比这复杂,我相信我们会持续提高模型准确率,直到达到极高水平。

许多情况下,当你与这些模型交互时,你会感到它们答案非常准确,值得信赖。这种信任,对于 AI 技术的发展至关重要。

第二个问题,是关于大语言模型与 AI 未来发展方向。

如今,我们所看到大语言模型与 AI 成果,都只是一个起点,它们并不是一劳永逸的解决方案。

许多复杂问题的解决,需要反复迭代与持续改进。规划解决问题的策略时,我们可能需要运用各种工具、查找专有数据、进行深入研究,甚至可能需要与其他智能主体,包括其他 AI 与人类进行交互与沟通。

未来的大语言模型,将会是一个能够不断迭代、思考、规划,并可能包含多个具有特定技能的子模型规划模型。这样的发展路径,意味着我们距离真正智能、全面的 AI ,还有很长的路要走。

开源大模型让生成式 AI 触手可及, AGI 5 年内出现

Patrick Collison 近期, Meta 发布的 Llama 3 模型,引起广泛关注,作为开源模型具有显著的影响力,你如何看待开源模型发展趋势?

黄仁勋: 如果你问我,过去几年里最重要的事件是什么,我会告诉你,首先就是 ChatGPT ,它采用强化学习与人类反馈来优化模型,使其更加符合人类价值观,并推动技术普及。

ChatGPT 让每个人都成为潜在程序员,推动无数创新应用诞生。我对此深感钦佩,对 OpenAI 团队的贡献表示敬意。

另一个重要事件,是 Llama 模型发展,特别是 Llama 2 发布。 Llama 2 激活几乎所有行业,让他们开始研究生成式 AI 。它为各行业提供接触与利用生成式 AI 的机会,从医疗保健、金融服务到制造业、客户服务与零售业,几乎覆盖所有领域。

Llama 2 Llama 3 ,作为开源模型,吸引研究机构、初创公司与整个行业广泛参与,推动生成式 AI 技术普及与发展。我认为这是一项伟大成就,它让生成式 AI 变得更加触手可及。

Patrick Collison Anthropic CEO Dario Amodei ,在最近播客节目中预测,相对近期不会出现 AGI ,可能要等到几年后,比如 2027 年等,你对此有何看法?

黄仁勋: 关于 AGI 定义与实现,我认为我们需要明确一些基本概念。

作为工程师,我们知道只有在能够衡量问题的情况下,才能有效解决问题。 AGI






请到「今天看啥」查看全文


推荐文章
最江阴  ·  刚刚,江苏多地下雪!江阴……
12 小时前
中国国家地理  ·  春日旅行第一站,去看大地的“五线谱”
14 小时前
中国国家地理  ·  这地方,是“万龙甲”照进现实景观了吗?
14 小时前
中国国家地理  ·  这里才是江南水乡之夜!
昨天
甘肃省文化和旅游厅  ·  张掖平山湖大峡谷:红色崖壁下的自然奇观
2 天前
甘肃省文化和旅游厅  ·  张掖平山湖大峡谷:红色崖壁下的自然奇观
2 天前
iWeekly周末画报  ·  如果希拉里是男的,美国就得救了?
8 年前