专栏名称: 六合商业研选
六合咨询立足新经济,挖掘明日之星,发现价值,传播价值;国际化视野、多角度观察、深度思考、体系化研究,持续提升研究广度与深度,全面覆盖一级、新三板、二级(A股+美股+港股);深度剖析优质企业商业模式与投资价值,前瞻性洞察行业本质与发展趋势。
目录
相关文章推荐
每日人物  ·  北京国贸打工人,涌向“穷鬼购物天堂” ·  2 天前  
人物  ·  中年后,我还有哭的自由吗? ·  2 天前  
南方人物周刊  ·  林小英 关注“中下部分的学生” | ... ·  3 天前  
每日人物  ·  高铁上野餐的年轻人,撑起一门隐秘生意 ·  3 天前  
每日人物  ·  北上消费的香港人,扎堆中山买房养老 ·  3 天前  
51好读  ›  专栏  ›  六合商业研选

【长期主义】第284期智能说:黄仁勋最新2万字演讲实录,阿里董事长蔡崇信最新访谈

六合商业研选  · 公众号  ·  · 2024-06-08 06:30

正文


2024 6 2 日,英伟达创始人、 CEO 黄仁勋,在 2024 中国台北国际电脑展 Computex 上发表主题演讲,分享 AI 时代如何助推全球新产业革命。这场演讲涵盖从 AI 基础技术,到未来机器人与生成式 AI 在各行业应用,全面展示英伟达在推动计算技术变革方面卓越成就。

2024 5 23 日,摩根大通在上海举办第 20 届全球中国峰会,阿里集团董事长蔡崇信,与摩根大通北亚区董事长兼大中华区投资银行业务副主席 Kam Shing Kwang 进行对话。 蔡崇信详细剖析 AI 带来的价值与机遇,涉及 AI 学习曲线、 AGI 前景、云与 AI 融合应用、 AI 在垂直领域具体实践、不同大模型间如何协同工作等方面。

本期长期主义,选择黄仁勋最新 2 万字演讲实录、阿里董事长蔡崇信最新访谈,腾讯科技发布,六合商业研选精校,分享给大家, Enjoy

正文:
全文 23,821
预计阅读 48 分钟

黄仁勋最新 2 万字演讲实录:将打破摩尔定律发布新产品,机器人时代已经到来
时间: 2024 6 3
来源:腾讯科技
字数: 17,468

2024 6 2 日,英伟达创始人、 CEO 黄仁勋,在 2024 中国台北国际电脑展 Computex 上发表主题演讲,分享 AI 时代如何助推全球新产业革命。这场演讲涵盖从 AI 基础技术,到未来机器人与生成式 AI 在各行业应用,全面展示英伟达在推动计算技术变革方面卓越成就。

英伟达位于计算机图形、模拟与 AI 交汇处,这是英伟达灵魂。今天展示的一切都是模拟的,它是数学、科学、计算机科学、令人惊叹计算机架构的结合。这些都不是动画,而是自制,英伟达把它全部融入 Omniverse 虚拟世界。

本次演讲要点:

黄仁勋展示最新量产版 Blackwell 芯片,将在 2025 年推出 Blackwell Ultra AI 芯片,下一代 AI 平台命名为 Rubin 2027 年推 Rubin Ultra ,更新节奏将是 1 年一次,打破摩尔定律。

黄仁勋宣称英伟达推动了大语言模型 LLM 诞生,其在 2012 年后改变了 GPU 架构,并将所有新技术集成在单台计算机上。

英伟达加速计算技术,帮助实现 100 倍速率提升,功耗仅增加到原来 3 倍,成本为原来 1.5 倍。

黄仁勋预计下一代 AI ,需要理解物理世界,给出的方法是让 AI 通过视频与合成数据学习,并让 AI 互相学习。

黄仁勋在 PPT 里给 token 敲定中文译名词元。

黄仁勋表示,机器人时代已经到来,将来所有移动物体,都将实现自主运行。

黄仁勋 2 小时演讲全文实录:

尊敬的各位来宾,我非常荣幸能再次站在这里。

首先,我要感谢台湾大学为我们提供体育馆作为举办活动的场所。上一次我来到这里,是我从台湾大学获得学位的时候。

今天,我们即将探讨的内容很多,我必须加快步伐,以快速而清晰方式传达信息。我们有很多话题要聊,我有许多激动人心的故事要与大家分享。

我很高兴能够来到中国台湾,这里有我们很多合作伙伴。这里不仅是英伟达发展历程中不可或缺的一部分,更是我们与合作伙伴共同将创新推向全球的关键节点。

我们与许多合作伙伴,共同构建全球范围内的 AI 基础设施。

今天,我想与大家探讨几个关键议题:

1 、我们共同的工作正在取得哪些进展,以及这些进展的意义何在?

2 、生成式 AI 到底是什么?它将如何影响我们行业,乃至每一个行业?

3 、一个关于我们如何前进的蓝图,我们将如何抓住令人难以置信的机遇?

接下来会发生什么?生成式 AI 及其带来的深远影响,我们的战略蓝图,这些都是我们即将探讨令人振奋的主题。

我们正站在计算机行业重启的起点上,一个由你们铸就、由你们创造的新时代,即将开启。现在,你们已经为下一段重要旅程做好准备。

新的计算时代正在开始

深入讨论之前,我想先强调一点:英伟达位于计算机图形学、模拟与 AI 的交汇点,这构成我们公司灵魂。

今天,我将向大家展示的所有内容,都是基于模拟的。这些不仅是视觉效果,它们背后是数学、科学与计算机科学的精髓,以及令人叹为观止的计算机架构。没有任何动画是预先制作的,一切都是我们自家团队的杰作。这就是英伟达的领会,我们将其全部融入我们引以为傲的 Omniverse 虚拟世界中。

全球数据中心电力消耗正在急剧上升,计算成本也在不断攀升。我们正面临计算膨胀的严峻挑战,这种情况无法长期维持。数据将继续以指数级增长, CPU 性能扩展难以像以往那样快速,有一种更为高效的方法正在浮现。

20 年来,我们一直致力加速计算的研究。 CUDA 技术增强 CPU 功能,将那些特殊处理器能更高效完成的任务卸载并加速。 CPU 性能扩展的放缓甚至停滞,加速计算的优势愈发显著。我预测,每个处理密集型的应用都将实现加速,不久的将来,每个数据中心都将实现全面加速。

现在,选择加速计算是明智之举,这已成为行业共识。想象一下,一个应用程序需要 100 个时间单位来完成。无论是 100 秒还是 100 小时,我们往往无法承受运行数天甚至数月的 AI 应用。

在这 100 个时间单位中,有 1 个时间单位涉及需要顺序执行的代码,此时单线程 CPU 的重要性不言而喻。操作系统的控制逻辑不可或缺,必须严格按照指令序列执行。还有许多算法,如计算机图形学、图像处理、物理模拟、组合优化、图处理与数据库处理,特别是深度学习中广泛使用的线性代数,它们非常适合通过并行处理进行加速。为实现这一目标,我们发明创新架构,将 GPU CPU 完美结合。

专用的处理器,能够将原本耗时的任务加速至令人难以置信的速度。这两个处理器能并行工作,它们各自独立、自主运行。意味着,原本需要 100 个时间单位才能完成的任务,现在可能仅需 1 个时间单位即可完成。尽管这种加速效果听起来令人难以置信,但今天,我将通过一系列实例来验证这一说法。

这种性能提升所带来的好处是惊人的,加速 100 倍,功率仅增加约 3 倍,成本仅上升约 50% ,我们在 PC 行业早已实践这种策略。在 PC 上添加价值 500 美元的 GeForce GPU ,就能使其性能大幅提升,整体价值增加至 1,000 美元。

数据中心,我们也采用同样方法。价值 10 亿美元的数据中心,在添加价值 5 亿美元 GPU 后,瞬间转变为强大的 AI 工厂。今天,这种变革正在全球范围内发生。节省的成本同样令人震惊。每投入 1 美元,就能获得高达 60 倍性能提升。加速 100 倍,功率仅增加 3 倍,成本仅上升 1.5 倍,节省的费用是实实在在的。

许多公司在云端处理数据上,花费数亿美元。当数据得到加速处理时,节省数亿美元变得合情合理。为什么会这样?原因很简单,我们在通用计算方面经历长时间的效率瓶颈。

现在,我们终于认识到这一点,决定加速。通过采用专用处理器,我们可以重新获得大量之前被忽视的性能提升,节省大量金钱与能源。这就是为什么我说,你购买得越多,节省得也越多。

现在,我已经向你们展示了这些数字。它们并非精确到小数点后几位,但这准确反映了事实,这可以称之为 CEO 数学。 CEO 数学,不追求极致精确,背后逻辑是正确的,你购买的加速算力越多,节省的成本也就越多。

350 个函式库帮助开拓新市场

加速计算带来的结果非凡,实现过程并不容易。为什么它能节省这么多钱,人们却没有更早采用这种技术,原因就在于它的实施难度太大。

没有现成的软件可以简单通过加速编译器运行,然后应用程序就能瞬间提速 100 倍。这既不符合逻辑,也不现实。如果这么容易, CPU 厂商早就这样做了。

要实现加速,软件必须进行全面重写,这是整个过程中最具挑战性的部分。软件需要被重新设计、重新编码,以便将原本在 CPU 上运行的算法,转化为可以在加速器上并行运行的格式。

这项计算机科学研究困难,我们在过去 20 年里已经取得显著进展。例如,我们推出广受欢迎的 cuDNN 深度学习库,它专门处理神经网络加速。

我们还为 AI 物理模拟提供一个库,适用于流体动力学等需要遵守物理定律的应用。我们还有 Aerial 的新库,它利用 CUDA 加速 5G 无线电技术,使我们能够像软件定义互联网网络一样,用软件定义与加速电信网络。

这些加速能力,不仅提升了性能,还帮助我们将整个电信行业,转化为一种与云计算类似的计算平台。

Coolitho 计算光刻平台,也是很好的例子,它极大提升芯片制造过程中计算最密集的部分,掩模制作的效率。

台积电等公司,已经开始使用 Coolitho 进行生产,不仅显著节省能源,大幅降低成本。他们目标是通过加速技术栈,为算法的更进一步发展与制造更深更窄的晶体管所需的庞大算力做好准备。

Pair of Bricks ,是我们引以为傲的基因测序库,它拥有世界领先的基因测序吞吐量。

Co OPT 是一个令人瞩目的组合优化库,能够解决路线规划、优化行程、旅行社问题等复杂难题。

人们普遍认为,这些问题需要量子计算机才能解决,我们却通过加速计算技术,创造了运行极快的算法,成功打破 23 项世界纪录,至今我们仍保持着每一个主要的世界纪录。

Coup Quantum 是我们开发的量子计算机仿真系统,对于想要设计量子计算机或量子算法的研究人员来说,一个可靠的模拟器必不可少。在没有实际量子计算机的情况下,英伟达 CUDA ,我们称之为世界上最快的计算机,成为他们首选工具。

我们提供一个模拟器,能够模拟量子计算机运行,帮助研究人员在量子计算领域取得突破。这个模拟器已经被全球数十万研究人员广泛使用,并被集成到所有领先的量子计算框架中,为世界各地科学超级计算机中心提供强大支持。

我们推出数据处理库 Kudieff ,专门用于加速数据处理过程。数据处理占据当今云支出绝大部分,加速数据处理对于节省成本至关重要。 QDF 是我们开发的加速工具,能够显著提升世界上主要数据处理库性能,如 Spark Pandas Polar NetworkX 等图处理数据库。

这些库是生态系统中关键组成部分,它们使得加速计算得以广泛应用。如果没有我们精心打造的如 cuDNN 这样的特定领域库,仅凭 CUDA ,全球深度学习科学家可能无法充分利用其潜力, CUDA TensorFlow PyTorch 等深度学习框架中使用的算法之间存在显著差异。这就像在没有 OpenGL 的情况下,进行计算机图形学设计,或是在没有 SQL 的情况下进行数据处理一样不切实际。

这些特定领域的库是我们公司的宝藏,我们目前拥有超过 350 个这样的库。正是这些库,让我们在市场中保持开放与领先。

今天,我将向你们展示更多令人振奋的例子。

就在上周,谷歌宣布已经在云端部署了 QDF ,并成功加速 Pandas Pandas 是世界上最受欢迎的数据科学库,被全球 1,000 万数据科学家使用,每月下载量高达 1.7 亿次。它就像是数据科学家的 Excel ,是他们处理数据的得力助手。

现在,只需在谷歌云端数据中心平台 Colab 点击一下,就可以体验到由 QDF 加速的 Pandas 带来的强大性能。这种加速效果令人惊叹,就像你们刚刚看到的演示一样,它几乎瞬间完成数据处理任务。

CUDA 实现良性循环

CUDA 已经达到人们所称的临界点,现实情况比这要好, CUDA 已经实现良性的发展循环。

回顾历史与各种计算架构、平台发展,我们可以发现这样的循环不常见。以微处理器 CPU 为例,它已经存在 60 年,加速计算的方式在这漫长岁月里,并未发生根本性改变。

要创建一个新的计算平台,往往面临先有鸡、还是先有蛋的困境。没有开发者的支持,平台很难吸引用户;没有用户广泛采用,难以形成庞大的安装基础,来吸引开发者。这个困境,在过去 20 年中,一直困扰多个计算平台发展。

通过持续不断推出特定领域的库与加速库,我们成功打破这一困境。如今,我们已在全球拥有 500 万开发者,他们利用 CUDA 技术服务从医疗保健、金融服务,到计算机行业、汽车行业等几乎每一个主要行业与科学领域。

随着客户群不断扩大, OEM 与云服务提供商开始对我们系统产生兴趣,这进一步推动更多系统进入市场。这种良性循环,为我们创造巨大机遇,使我们能够扩大规模,增加研发投入,推动更多应用加速发展。

每一次应用加速,都意味计算成本显著降低。 100 倍的加速,可以带来高达 97.96% ,接近 98% 的成本节省。随着我们将计算加速从 100 倍提升至 200 倍,再飞跃至 1,000 倍,计算边际成本持续下降,展现出令人瞩目的经济效益。

我们相信,通过显著降低计算成本,市场、开发者、科学家与发明家,将不断发掘出消耗更多计算资源的新算法。直至某个时刻,一种深刻的变革将悄然发生。当计算的边际成本变得如此低廉时,全新的计算机使用方式将应运而生。

这种变革正在我们眼前上演,过去 10 年,我们利用特定算法将计算的边际成本降低惊人的 100 万倍。如今,利用互联网上所有数据来训练大语言模型 LLM 已成为一种合乎逻辑、理所当然的选择,不再受到任何质疑。

这个想法,打造一台能够处理海量数据,以自我编程的计算机,正是 AI 崛起的基石。

AI 的崛起之所以成为可能,完全是我们坚信,如果我们让计算变得越来越便宜,总会有人找到巨大用途。如今, CUDA 的成功,已经证明这一良性循环的可行性。

随着安装基础持续扩大与计算成本持续降低,越来越多开发者得以发挥他们创新潜能,提出更多想法与解决方案,这种创新力推动市场需求激增。

现在我们正站在一个重大转折点上,我想强调的是,如果不是 CUDA 与现代 AI 技术,尤其是生成式 AI 的突破,以下我所要展示的内容将无法实现。

这就是地球 2 号项目,一个雄心勃勃的设想,旨在创建地球的数字孪生体。我们将模拟整个地球运行,以预测未来变化。通过这样的模拟,我们可以更好预防灾难,更深入理解气候变化影响,让我们能够更好适应这些变化,甚至现在就开始改变我们行为与习惯。

地球 2 号项目,可能是世界上最具挑战性、最雄心勃勃的项目之一。我们每年都在这个领域取得显著进步, 2024 年成果尤为突出。

现在,请允许我为大家展示这些令人振奋的进展。

不远的将来,我们将拥有持续的天气预报能力,覆盖地球上每一平方公里。你将始终了解气候将如何变化,这种预测将不断运行,我们训练 AI AI 所需的能量又极为有限,这将是令人难以置信的成就。

我希望你们会喜欢它,更加重要的是,这一预测是由 Jensen AI 做出,而非我本人。我设计了它,最终的预测由 Jensen AI 来呈现。

我们致力不断提高性能,并降低成本,研究人员在 2012 年发现 CUDA ,那是英伟达与 AI 首次接触。那一天对我们而言至关重要,我们做出明智的选择,与科学家们紧密合作,使深度学习成为可能。 AlexNet 的出现,实现计算机视觉的巨大突破。

AI 超算的崛起,起初并不被认同

更为重要的智慧在于我们退后一步,深入理解深度学习本质。

它的基础是什么?它的长期影响是什么?它的潜力是什么?

我们意识到,这项技术拥有巨大潜力,能够继续扩展几十年前发明与发现的算法,结合更多数据、更大网络,与至关重要的计算资源,深度学习突然间能够实现人类算法无法企及的任务。

现在,想象一下,如果我们进一步扩大架构,拥有更大网络、更多数据与计算资源,将会发生什么?我们致力于重新发明一切。

2012 年以来,我们改变 GPU 架构,增加张量核心,发明 NV-Link ,推出 cuDNN TensorRT Nickel ,收购 Mellanox ,推出 Triton 推理服务器。

这些技术集成在一台全新的计算机上,它超越当时所有人的想象。没有人预料到,没有人提出这样的需求,甚至没有人理解它的全部潜力,我自己也不确定是否会有人会想买它。

但在 GTC 大会上,我们正式发布这项技术。旧金山初创公司 OpenAI 迅速注意到我们成果,并请求我们提供一台设备,我亲自为 OpenAI 送去世界上首台 AI 超级计算机 DGX

2016 年,我们持续扩大研发规模。从单一的 AI 超级计算机,单一的 AI 应用,扩大到在 2017 年推出更为庞大、强大的超级计算机。

随着技术不断进步,世界见证 Transformer 崛起。这一模型的出现,使我们能够处理海量数据,并识别与学习在长时间跨度内连续的模式。

如今,我们有能力训练这些大语言模型 LLM ,以实现自然语言理解方面的重大突破。

我们并未止步于此,我们继续前行,构建更大模型。到 2022 11 月,在极为强大的 AI 超级计算机上,我们使用数万颗英伟达 GPU 进行训练。

5 天后, OpenAI 宣布 ChatGPT 已拥有 100 万用户。这一惊人的增长速度,在短短 2 个月内攀升至 1 亿用户,创造应用历史上最快的增长记录。原因十分简单, ChatGPT 的使用体验便捷而神奇。

用户能够与计算机进行自然、流畅互动,仿佛与真人交流一般。无需繁琐的指令或明确描述, ChatGPT 便能理解用户意图与需求。

ChatGPT 的出现,标志着划时代的变革,这张幻灯片恰恰捕捉到这一关键转折。

直至 ChatGPT 的问世,它才真正向世界揭示生成式 AI 的无限潜能。长久以来, AI 焦点主要集中在感知领域,如自然语言理解、计算机视觉与语音识别,这些技术致力模拟人类感知能力。

ChatGPT 带来质的飞跃,它不仅局限于感知,而是首次展现生成式 AI 的力量。它会逐个生成 Token ,这些 Token 可以是单词、图像、图表、表格,甚至是歌曲、文字、语音与视频。 Token 可以代表任何具有明确意义的事物,无论是化学物质、蛋白质、基因,还是之前我们提到的天气模式。

这种生成式 AI 的崛起意味着,我们可以学习并模拟物理现象,让 AI 模型理解并生成物理世界的各种现象。我们不再局限缩小范围进行过滤,而是通过生成方式探索无限可能。

我们如今几乎可以为任何有价值的事物生成 Token ,无论是汽车转向盘控制、机械臂关节运动,还是我们目前能够学习的任何知识。我们所处的已不仅是 AI 时代,而是生成式 AI 引领的新纪元。

更重要的是,这台最初作为超级计算机出现的设备,如今已经演化为高效运转的 AI 数据中心。它不断产出,不仅生成 Token ,更是创造价值的 AI 工厂,这个 AI 工厂正在生成、创造与生产具有巨大市场潜力的新商品。

正如 19 世纪末尼古拉 · 特斯拉 Nikola Tesla 发明了交流发电机,为我们带来源源不断电子,英伟达 AI 生成器正源源不断产生具有无限可能性的 Token 。这两者都有巨大市场机会,有望在每个行业掀起变革,这是一场新的工业革命。

我们现在迎来全新的工厂,能够为各行各业生产出前所未有、极具价值的新商品。这一方法不仅极具可扩展性,完全可重复。目前每天都在不断涌现各种各样 AI 模型,尤其是生成式 AI 模型。如今,每个行业都竞相参与其中,这是前所未有的盛况。

价值 3 万亿美元的 IT 行业,将催生能够直接服务于 100 万亿美元产业的创新成果。它不再仅是信息存储或数据处理的工具,而是每个行业生成智能的引擎。这将成为新型制造业,它并非传统的计算机制造业,而是利用计算机进行制造的全新模式。这样的变革以前从未发生过,这是令人瞩目的非凡之事。

生成式 AI 推动软件全栈重塑,展示 NIM 云原生微服务

这开启计算加速新时代,推动 AI 迅猛发展,进而催生生成式 AI 的兴起。如今,我们正在经历一场工业革命。关于其影响,让我们深入探讨一下。

对于我们所在行业而言,这场变革的影响同样深远。这是过去 60 年来首次,计算的每一层都正在发生变革。从 CPU 的通用计算,到 GPU 的加速计算,每一次变革都标志着技术飞跃。

过去,计算机需要遵循指令执行操作,现在,它们更多是处理大语言模型 LLM AI 模型。

过去的计算模型主要基于检索,几乎每次你使用手机时,它都会为你检索预先存储的文本、图像、视频,并根据推荐系统,重新组合这些内容呈现给你。

但在未来,你的计算机会尽可能多生成内容,只检索必要信息,生成数据在获取信息时消耗的能量更少。

生成的数据,具有更高的上下文相关性,能更准确反映你的需求。当你需要答案时,不再需要明确指示计算机给我获取那个信息或给我那个文件,只需简单说:给我一个答案。

计算机不再仅是我们使用的工具,它开始生成技能。它执行任务,不再是一个生产软件的行业,这在 90 年代初是一个颠覆性的观念。

微软提出的软件打包理念,彻底改变 PC 行业。没有打包软件,我们 PC 将失去大部分功能,这一创新推动整个行业发展。

现在我们有了新工厂、新计算机,而在这个基础上运行的是一种新型软件,我们称之为 Nim NVIDIA Inference Microservices )。在这个新工厂中运行的 Nim 是一个预训练模型,它是一个 AI

这个 AI 本身相当复杂,运行 AI 的计算堆栈更是复杂得令人难以置信。当你使用 ChatGPT 这样模型时,背后是庞大的软件堆栈。这个堆栈复杂庞大,模型拥有数 10 亿到数万亿参数,不仅在一台计算机上运行,而是在多台计算机上协同工作。

为最大化效率,系统需要将工作负载分配给多个 GPU ,进行各种并行处理,如张量并行、管道并行、数据并行、专家并行。这样的分配,是为了确保工作能尽快完成,在一个工厂中,吞吐量直接关系到收入、服务质量与可服务的客户数量。如今,我们身处数据中心吞吐量利用率至关重要的时代。

过去,吞吐量被认为重要,并非决定性因素。现在,从启动时间、运行时间、利用率、吞吐量,到空闲时间等每一个参数都被精确测量,数据中心已成为真正的工厂。这个工厂中,运作效率直接关联到公司财务表现。

鉴于这种复杂性,我们深知大多数公司在部署 AI 时面临的挑战。我们开发一个集成化的 AI 容器解决方案,将 AI 封装在易于部署与管理的盒子中。这个盒子包含庞大的软件集合,如 CUDA CUDACNN TensorRT ,以及 Triton 推理服务。它支持云原生环境,允许在 Kubernetes 基于容器技术的分布式架构解决方案环境中自动扩展,并提供管理服务,方便用户监控 AI 服务的运行状态。

更令人振奋的是,这个 AI 容器提供通用、标准的 API 接口,使得用户可以直接与盒子进行交互。

用户只需下载 Nim ,并在支持 CUDA 的计算机上运行,即可轻松部署与管理 AI 服务。

如今, CUDA 无处不在,它支持各大云服务提供商,几乎所有计算机制造商都提供 CUDA 支持,甚至在数亿台 PC 中也能找到它的身影。

当你下载 Nim 时,即刻拥有 AI 助手,它能如与 ChatGPT 对话般流畅交流。现在,所有的软件都已精简并整合在一个容器中,原先繁琐的 400 个依赖项全部集中优化。

我们对 Nim 进行严格测试,每个预训练模型都在我们云端基础设施上得到全面测试,包括 Pascal Ampere ,乃至最新的 Hopper 等不同版本的 GPU 。这些版本种类繁多,几乎覆盖所有需求。

Nim 的发明,是一项壮举,它是我最引以为傲的成就之一。如今,我们有能力构建大语言模型 LLM 与各种预训练模型,这些模型涵盖语言、视觉、图像等多个领域,还有针对特定行业如医疗保健与数字生物学的定制版本。

想要了解更多或试用这些版本,只需访问 ai.nvidia.com 。今天,我们在 Hugging Face 上发布完全优化的 Llama 3 Nim ,你可以立即体验,甚至免费带走它。无论你选择哪个云平台,都能轻松运行它。你可以将这个容器下载到你的数据中心,自行托管,并为你的客户提供服务。

我们拥有覆盖不同领域 Nim 版本,包括物理学、语义检索、视觉语言等,支持多种语言。这些微服务,可以轻松集成到大型应用中,最具潜力的应用之一是客户服务代理。它几乎是每个行业标配,代表价值数万亿美元的全球客户服务市场。

值得一提的是,护士们作为客户服务的核心,在零售、快餐、金融服务、保险等行业中发挥着重要作用。如今,借助语言模型与 AI 技术,数千万的客户服务人员得到显著增强。这些增强工具核心,正是 Nim

有些被称为推理智能体 Reasoning Agents ,它们被赋予任务后,能够明确目标,制定计划。有的擅长检索信息,有的精于搜索,还有的可能会使用工具 Coop ,或者需要学习在 SAP 上运行特定语言 ABAP ,甚至执行 SQL 查询。这些所谓的专家,现在被组成一个高效协作的团队。

应用层也发生变革:过去,应用程序是由指令编写,现在,它们是通过组装 AI 团队来构建。编写程序需要专业技能,几乎每个人都知道如何分解问题,组建团队。我坚信,未来每家公司,都会拥有庞大的 Nim 集合。你可以根据需要选择专家,将它们连接成团队。

更神奇的是,你甚至不需要弄清楚如何连接它们。只需给代理分配一个任务, Nim 会智能决定如何分解任务,并分配给最适合的专家。它们就像应用程序或团队的中央领导者,能够协调团队成员工作,最终将结果呈现给你。

整个过程,就像人类团队协作一样高效、灵活。这不仅是未来趋势,而是即将在我们身边成为现实,这就是未来应用程序将要呈现的全新面貌。

PC 将成为数字人主要载体

当我们谈论与大型 AI 服务交互时,我们已经可以通过文本与语音提示来实现。展望未来,我们更希望以更人性化方式,即数字人来进行互动,英伟达在数字人技术领域已经取得显著进展。

数字人不仅具有成为出色交互式代理的潜力,它们还更加吸引人,并可能展现出更高的同理心。

要跨越这个令人难以置信的鸿沟,使数字人看起来与感觉更加自然,我们仍需付出巨大努力。这不仅是我们愿景,更是我们不懈追求的目标。

在我向大家展示我们目前成果之前,请允许我表达对中国台湾的热情问候。在深入探索夜市的魅力之前,让我们先一同领略数字人技术的前沿动态。

这令人觉得不可思议, ACE Avatar Cloud Engine ),英伟达数字人技术不仅能在云端高效运行,也兼容 PC 环境。我们前瞻性将 Tensor Core GPU 集成到所有 RTX 系列中,这标志着 AI GPU 时代已经到来,我们为此做好充分准备。

背后逻辑十分清晰:要构建一个新的计算平台,必须先奠定坚实基础。有了坚实基础,应用程序会随之涌现。如果缺乏这样基础,应用程序无从谈起。只有当我们构建了它,应用程序的繁荣,才有可能实现。

我们在每一款 RTX GPU 中,都集成 Tensor Core 处理单元,目前全球已有 1 亿台 GeForce RTX AI PC 投入使用,这个数字还在不断增长,预计将达到 2 亿台。在最近 Computex 展会上,我们更是推出 4 款全新的 AI 笔记本。

这些设备都具备运行 AI 的能力,未来笔记本与 PC 将成为 AI 载体,它们将在后台默默为你提供帮助与支持。这些 PC 将运行由 AI 增强的应用程序,无论你是进行照片编辑、写作,还是使用其他工具,都将享受到 AI 带来的便利与增强效果。

你的 PC 还将能够托管带有 AI 的数字人应用程序,让 AI 以更多样化方式呈现,并在 PC 上得到应用, PC 将成为至关重要的 AI 平台。

接下来我们将如何发展?

之前我谈到我们数据中心的扩展,每次扩展都伴随新的变革。当我们从 DGX 扩展到大型 AI 超级计算机时,我们实现 Transformer 在巨大数据集上高效训练。这标志着一个重大转变:一开始,数据需要人类监督,通过人类标记来训练 AI ,人类能够标记的数据量是有限的。现在,随着 Transformer 发展,无监督学习成为可能。

如今, Transformer 能够自行探索海量数据、视频与图像,从中学习并发现隐藏的模式与关系。

为了推动 AI 向更高层次发展,下一代 AI 需要根植于物理定律的理解,大多数 AI 系统缺乏对物理世界深刻认识。为生成逼真的图像、视频、 3D 图形,以及模拟复杂的物理现象,我们急需开发基于物理的 AI ,这要求它能够理解并应用物理定律。

在实现这一目标过程中,有两个主要方法。

首先,通过从视频学习, AI 可以逐步积累对物理世界认知。

其次,利用合成数据,我们可以为 AI 系统提供丰富、可控的学习环境。

模拟数据与计算机之间的互相学习,也是一种有效的策略。这种方法类似 AlphaGo 的自我对弈模式,让两个相同能力的实体长时间相互学习,不断提升智能水平。我们可以预见,这种类型的 AI 将在未来逐渐崭露头角。

Blackwell 全面投产, 8 年间算力增 1,000

AI 数据通过合成方式生成,结合强化学习技术时,数据生成的速率将得到显著提升。

随着数据生成的增长,对算力的需求将相应增加。我们即将迈入新时代,在这个时代中, AI 将能够学习物理定律,理解并基于物理世界数据进行决策与行动。我们预计 AI 模型将继续扩大,对 GPU 性能要求将越来越高。

为满足这一需求, Blackwell 应运而生。这款 GPU 专为支持新一代 AI 设计,拥有几项关键技术。

这种芯片尺寸之大 , 在业界首屈一指。我们采用两片尽可能大的芯片,通过每秒 10 太字节的高速链接,结合世界上最先进的 SerDes 高性能接口或连接技术,将它们紧密连接在一起。

进一步,我们将两片这样的芯片放置在一个计算机节点上,通过 Grace CPU (英伟达 2022 年推出的首款数据中心 CPU )进行高效协调。

Grace CPU 用途广泛,不仅适用训练场景,还在推理与生成过程中发挥关键作用,如快速检查点与重启。它还能存储上下文,让 AI 系统拥有记忆,并能理解用户对话的上下文,这对于增强交互的连续性与流畅性至关重要。

我们推出的第 2 Transformer 引擎,进一步提升 AI 的计算效率。这款引擎能够根据计算层的精度与范围需求,动态调整至较低精度,在保持性能的同时,降低能耗。 Blackwell GPU 具备安全 AI 功能,确保用户能够要求服务提供商保护其免受盗窃或篡改。

GPU 互联方面,我们采用第 5 NV Link 技术,它允许我们轻松连接多个 GPU Blackwell GPU 配备第 1 代可靠性与可用性引擎 Ras 系统,这一创新技术能够测试芯片上每一个晶体管、触发器、内存,以及片外内存,确保我们在现场就能准确判断特定芯片是否达到平均故障间隔时间 MTBF 的标准。

对大型超级计算机来说,可靠性尤为关键。拥有 10,000 GPU 的超级计算机平均故障间隔时间,可能以小时为单位,当 GPU 数量增加至 100,000 个时,平均故障间隔时间将缩短至以分钟为单位。

为了确保超级计算机能够长时间稳定运行,以训练可能需要数个月时间的复杂模型,我们必须通过技术创新来提高可靠性。 可靠性的提升,不仅能够增加系统正常运行时间,还能有效降低成本。

最后,我们还在 Blackwell GPU 中,集成先进的解压缩引擎。数据处理方面,解压缩速度至关重要。通过集成这一引擎,我们可以从存储中拉取数据的速度,比现有技术快 20 倍,极大提升数据处理效率。

Blackwell GPU 上述功能特性,使其成为一款令人瞩目的产品。在之前 GTC 大会上,我曾向大家展示处于原型状态的 Blackwell 。现在,我们很高兴宣布,这款产品已经投入生产。

这就是 Blackwell ,使用令人难以置信的技术。这是我们的杰作,当今世界上最复杂、性能最高的计算机。

我们特别要提到的是 Grace CPU ,它承载巨大算力。请看,这两个 Blackwell 芯片,它们紧密相连。

这就是世界上最大的芯片,我们使用每秒高达 A10TB 的链接,将两片这样的芯片融为一体。

Blackwell 性能之强大,令人难以置信。短短 8 年内,我们算力、浮点运算以及 AI 浮点运算能力增长 1,000 倍。这速度,几乎超越摩尔定律在最佳时期的增长。

Blackwell 算力增长惊人,更值得一提的是,每当我们算力提高时,成本在不断下降。我们通过提升算力,用于训练 GPT-4 模型 2 万亿参数与 8 万亿 Token 的能量,下降 350 倍。

想象一下,如果使用 Pascal 进行同样训练,它将消耗高达 1,000 吉瓦时的能量。这意味需要一个吉瓦数据中心来支持,世界上并不存在这样的数据中心。即便存在,它也需要连续运行 1 个月时间。如果是 100 兆瓦的数据中心,训练时间将长达 1 年。

没有人愿意或能够创造这样的数据中心。这就是为什么 8 年前, ChatGPT 这样的大语言模型 LLM ,对我们来说是遥不可及的梦想。如今,我们通过提升性能,并降低能耗,实现这一目标。

我们利用 Blackwell ,将原本需要高达 1,000 吉瓦时的能量,降低到仅需 3 吉瓦时,这一成就是令人震惊的突破。

想象一下,使用 1,000 GPU ,它们所消耗的能量,竟然只相当于一杯咖啡的热量。 10,000 GPU ,更是只需短短 10 天左右时间,就能完成同等任务。 8 年间取得的这些进步,令人难以置信。

Blackwell 不仅适用于推理,在 Token 生成性能上的提升,更是令人瞩目。 Pascal 时代,每个 Token 消耗的能量,高达 17,000 焦耳,这大约相当于 2 个灯泡运行 2 天的能量。

生成一个 GPT-4 Token ,几乎需要 2 200 瓦特的灯泡持续运行 2 天。考虑到生成一个单词大约需要 3 Token ,这是一个巨大的能量消耗。

现在情况截然不同, Blackwell 使得生成每个 Token ,只需消耗 0.4 焦耳能量,以惊人的速度与极低的能耗进行 Token 生成,这是巨大的飞跃。即使如此,我们仍不满足。为了更大突破,我们必须建造更强大的机器。

这就是我们 DGX 系统, Blackwell 芯片将被嵌入其中。这款系统采用空气冷却技术,内部配备 8 个这样 GPU 。看看这些 GPU 上散热片,它们尺寸之大令人惊叹。整个系统功耗约为 15 千瓦,完全通过空气冷却实现。这个版本兼容 X86 ,并已应用于我们已发货的服务器中。

如果你更倾向于液冷技术,我们还有全新的系统 MGX 。它基于这款主板设计,我们称之为模块化系统。 MGX 系统核心在于 2 Blackwell 芯片,每个节点都集成 4 Blackwell 芯片。它采用液冷技术,确保高效稳定运行。

整个系统中,这样节点共有 9 个,共计 72 GPU ,构成庞大的计算集群。这些 GPU ,通过全新 NV 链接技术紧密相连,形成无缝的计算网络。 NV 链接交换机,堪称技术奇迹。它是目前世界上最先进的交换机,数据传输速率令人咋舌。这些交换机使得每个 Blackwell 芯片高效连接,形成巨大的 72 GPU 集群。

这一集群的优势何在?

首先,在 GPU 域中,它现在表现得就像一个单一、超大规模的 GPU 。这个超级 GPU ,拥有 72 GPU 的核心能力,相较于上一代 8 GPU ,性能提升 9 倍,带宽增加 18 倍, AI FLOPS 每秒浮点运算次数更是提升 45 倍,功率仅增加 10 倍。

也就是说,一个这样的系统,能提供 100 千瓦强劲动力,上一代仅为 10 千瓦。

你还可以将更多这些系统连接在一起,形成更庞大计算网络。真正的奇迹在于,这个 NV 链接芯片,随着大语言模型 LLM 日益庞大,重要性日益凸显。

这些大语言模型 LLM ,已经不适合单独放在一个 GPU 或节点上运行,它们需要整个 GPU 机架的协同工作。就像我刚才提到的那个新 DGX 系统,它能够容纳参数达到数十万亿的大语言模型 LLM

NV 链接交换机本身就是技术奇迹,拥有 500 亿个晶体管, 74 个端口,每个端口的数据速率高达 400 GB

更重要的是,交换机内部还集成数学运算功能,可以直接进行归约操作,这在深度学习中具有极其重要意义,这就是现在 DGX 系统全新面貌。

许多人对我们表示好奇,他们提出疑问,对英伟达业务范畴存在误解。人们疑惑,英伟达怎么可能仅凭制造 GPU 就变得如此庞大。很多人形成这样一种印象: GPU 应该是某种特定的样子。

现在我要展示给你们的,这是一个 GPU ,它并非你们想象中的那种。这是世界上最先进的 GPU 之一,它主要用于游戏领域。我们都清楚, GPU 真正力量远不止于此。

请看这个,这才是 GPU 的真正形态,这是 DGX GPU ,专为深度学习而设计。这个 GPU 背面连接着 NV 链接主干,这个主干由 5,000 条线组成,长达 3 公里。

这些线,就是 NV 链接主干,它们连接 70 GPU ,形成强大的计算网络。这是一个电子机械奇迹,其中的收发器,让我们能够在铜线上驱动信号贯穿整个长度。

这个 NV 链接交换机,通过 NV 链接主干在铜线上传输数据,使我们能够在单个机架中节省 20 千瓦电力,这 20 千瓦现在可以完全用于数据处理,这的确是一项令人难以置信的成就,这就是 NV 链接主干的力量。

为生成式 AI 推以太网

这还不足以满足需求,特别是对大型 AI 工厂来说更是如此,我们还有另一种解决方案。我们必须使用高速网络,将这些 AI 工厂连接起来。我们有两种网络选择: InfiniBand 与以太网。

InfiniBand 已经在全球各地的超级计算与 AI 工厂中广泛使用,增长迅速。并非每个数据中心,都能直接使用 InfiniBand ,他们在以太网生态系统上进行大量投资,管理 InfiniBand 交换机与网络需要一定的专业知识与技术。

我们解决方案是将 InfiniBand 的性能,带到以太网架构中,这并非易事。原因在于,每个节点、每台计算机,通常与互联网上不同用户相连,大多数通信发生在数据中心内部,即数据中心与互联网另一端用户之间的数据传输。

AI 工厂的深度学习场景下, GPU 并不是与互联网上用户进行通信,而是彼此之间进行频繁、密集的数据交换,它们相互通信,是它们都在收集部分结果。

它们必须将这些部分结果进行规约 reduce ,并重新分配 redistribute 。这种通信模式的特点,是高度突发性的流量。重要的不是平均吞吐量,而是最后一个到达的数据,如果你正在从所有人那里收集部分结果,并且我试图接收你所有的部分结果,如果最后一个数据包晚到了,整个操作就会延迟。对于 AI 工厂而言,延迟是一个至关重要的问题。

我们关注的焦点,并非平均吞吐量,而是确保最后一个数据包能够准时、无误抵达。传统的以太网,并未针对这种高度同步化、低延迟的需求,进行优化。为了满足这一需求,我们创造性设计了一个端到端的架构,使 NIC 网络接口卡与交换机能够通信。

为了实现这一目标,我们采用了 4 种关键技术:

第一、英伟达拥有业界领先的 RDMA 远程直接内存访问技术。现在,我们有了以太网网络级别的 RDMA ,它的表现非常出色。

第二、我们引入拥塞控制机制。交换机具备实时遥测功能,能够迅速识别并响应网络中拥塞情况。当 GPU NIC 发送的数据量过大时,交换机会立即发出信号,告知它们减缓发送速率,有效避免网络热点的产生。

第三、我们采用自适应路由技术。传统以太网按固定顺序传输数据,但在我们架构中,我们能够根据实时网络状况进行灵活调整。当发现拥塞或某些端口空闲时,我们可以将数据包发送到这些空闲端口,再由另一端的 Bluefield 设备重新排序,确保数据按正确顺序返回。这种自适应路由技术,极大提高网络灵活性与效率。

第四、我们实施噪声隔离技术。 数据中心中,多个模型同时训练产生的噪声与流量,可能会相互干扰,导致抖动。 我们噪声隔离技术,能够有效隔离这些噪声,确保关键数据包的传输不受影响。

过采用这些技术,我们成功为 AI 工厂提供高性能、低延迟的网络解决方案。在价值高达数 10 亿美元的数据中心中,如果网络利用率提升 40% ,训练时间缩短 20% ,意味着价值 50 亿美元的数据中心,在性能上等同于 60 亿美元的数据中心,揭示了网络性能对整体成本效益的显著影响。

幸运的是,带有 Spectrum X 的以太网技术,正是我们实现这一目标的关键,它大大提高网络性能,使得网络成本相对整个数据中心而言,几乎可以忽略不计,这是我们在网络技术领域取得的一大成就。

我们拥有一系列强大的以太网产品线,最引人注目的是 Spectrum X800 。这款设备,以每秒 51.2 TB 速度与 256 路径 radix 的支持能力,为成千上万 GPU 提供高效的网络连接。

接下来,我们计划 1 年后,推出 X800 Ultra ,它将支持高达 512 路径的 512 radix ,进一步提升网络容量与性能。 X 1600 是为更大规模的数据中心设计,能够满足数百万个 GPU 通信需求。

随着技术不断进步,数百万个 GPU 的数据中心时代已经指日可待,这一趋势的背后有着深刻原因。

一方面,我们渴望训练更大、更复杂的模型;更重要的是,未来的互联网与计算机交互,将越来越多依赖云端的生成式 AI 这些 AI 将与我们一起工作、互动,生成视频、图像、文本甚至数字人。我们与计算机的每一次交互,几乎都离不开生成式 AI 的参与。

并且总是有一个生成式 AI 与之相连,其中一些在本地运行,一些在你的设备上运行,很多可能在云端运行。

这些生成式 AI ,不仅具备强大推理能力,还能对答案进行迭代优化,以提高答案的质量。这意味着,我们未来将产生海量的数据生成需求。今晚,我们共同见证了这一技术革新的力量。

Blackwell ,作为 NVIDIA 平台第一代产品,自推出以来便备受瞩目。如今,全球范围内都迎来生成式 AI 的时代,这是全新的工业革命开端,每个角落都在意识到 AI 工厂的重要性。

我们深感荣幸,获得来自各行各业广泛支持,包括每一家 OEM 原始设备制造商、电脑制造商、 CSP 云服务提供商、 GPU 云、主权云、电信公司等。

Blackwell 的成功、广泛的采用,以及行业对其的热情,都达到前所未有的高度,这让我们深感欣慰,并在此向大家表示衷心的感谢,我们脚步不会停歇。

这个飞速发展的时代,我们将继续努力提升产品性能,降低培训与推理成本,不断扩展 AI 能力,使每一家企业都能从中受益。

我们坚信,随着性能提升,成本将进一步降低。 Hopper 平台,可能是历史上最成功的数据中心处理器。

Blackwell Ultra 将于 2025 年发布,下一代平台名为 Rubin

这是一个震撼人心的成功故事。 Blackwell 平台的诞生,并非单一组件的堆砌,而是综合 CPU GPU NVLink NICK 特定技术组件,以及 NVLink 交换机等多个元素的完整系统。

我们致力通过每代产品,使用大型、超高速的交换机,将所有 GPU 紧密连接,形成庞大、高效的计算域。

我们将整个平台集成到 AI 工厂中,更为关键的是,我们将这一平台以模块化形式提供给全球客户。

这样做的初衷在于,我们期望每一位合作伙伴都能根据自身需求,创造出独特、富有创新性的配置,以适应不同风格的数据中心、不同的客户群体,与多样化的应用场景。 从边缘计算到电信领域,只要系统保持开放,各种创新都将成为可能。

为了让你们能够自由创新,我们设计了一个一体化的平台,同时又以分解的形式提供给你们,使你们能够轻松构建模块化系统。现在, Blackwell 平台已经全面登场。

英伟达始终坚持每年一次的更新节奏,我们核心理念非常明确:

1 、构建覆盖整个数据中心规模的解决方案;

2 、将这些解决方案分解为各个部件,以每年一次的频率向全球客户推出;

3 、我们不遗余力将所有技术推向极限,无论是台积电的工艺技术、封装技术、内存技术,还是光学技术等,我们都追求极致的性能表现。

在完成硬件的极限挑战后,我们将全力以赴,确保所有软件都能在这个完整的平台上顺畅运行。

计算机技术中,软件惯性至关重要。 当我们计算机平台能够向后兼容,架构上与已有 软件完美契合时,产品的上市速度将显著提升。

Blackwell 平台问世时,我们能够充分利用已构建的软件生态基础,实现惊人的市场响应速度。

2025 年,我们将迎来 Blackwell Ultra 。正如我们曾推出的 H100 H200 系列一样, Blackwell Ultra 将引领新一代产品的热潮,带来前所未有的创新体验。

我们将继续挑战技术的极限,推出下一代频谱交换机,这是行业内首次尝试。 这一重大突破,已经成功实现,尽管我现在对于公开这个决定,还心存些许犹豫。

英伟达内部,我们习惯使用代码名,并保持一定的保密性。 很多时候,连公司内部大多数员工都不甚了解这些秘密。

我们下一代平台已被命名为 Rubin ,关于 Rubin ,我不会在此过多赘述。我深知大家的好奇心,请允许我保持一些神秘感。你们或许已经迫不及待想要拍照留念,或是仔细研究小字部分,就请随意。

我们不仅有 Rubin 平台, 1 年后还将推出 Rubin Ultra 平台。在此展示的所有芯片,都处于全面开发阶段,确保每一个细节都经过精心打磨。我们更新节奏,依然是 1 年一次,始终追求技术的极致,确保所有产品都保持 100% 的架构兼容性。

回顾过去 12 年,从 ImageNet 诞生那一刻起,我们就预见到计算领域的未来将会发生翻天覆地的变化。如今,这一切都成为现实,与我们当初设想不谋而合。从 2012 年之前 GeForce ,到如今的英伟达,公司经历巨大转变。在此,我要衷心感谢所有合作伙伴的一路支持与陪伴。

机器人时代已经到来

让我们谈谈 AI 与机器人相结合的未来。

物理 AI 正引领 AI 领域新浪潮,它们深谙物理定律,并能自如融入我们日常生活。物理 AI 不仅需要构建一个精准的世界模型,以理解如何解读与感知周围世界,更需具备卓越的认知能力,以深刻理解我们的需求,并高效执行任务。

展望未来,机器人技术将不再是遥不可及的概念,而是日益融入我们的日常生活。 当提及机器人技术时,人们往往会联想到人形机器人,它的应用远不止于此。

机械化将成为常态,工厂将全面实现自动化,机器人将协同工作,制造出一系列机械化产品。 它们之间的互动,将更加密切,共同创造出高度自动化的生产环境。

为实现这一目标,我们需要克服一系列技术挑战。

接下来,我将通过视频展示这些前沿技术。

这不仅是对未来的展望,它正逐步成为现实。

我们将通过多种方式服务市场。

首先,我们致力为不同类型机器人系统打造平台: 机器人工厂与仓库专用平台、物体操纵机器人平台、移动机器人平台,人形机器人平台。 这些机器人平台,与我们其他众多业务一样,依托计算机加速库与预训练模型。

我们运用计算机加速库、预训练模型,并在 Omniverse 中进行全方位测试、训练与集成, Omniverse 是机器人学习如何更好适应现实世界的地方。

机器人仓库的生态系统极为复杂,需要众多公司、工具与技术,来共同构建现代化的仓库。 如今,仓库正逐步迈向全面机械化,终有一天将实现完全自动化。

在这样一个生态系统中,我们为软件行业、边缘 AI 行业与公司,提供 SDK API 接口,同时也为 PLC 与机器人系统设计专用系统,以满足国防部等特定领域的需求。这些系统通过集成商整合,最终为客户打造高效、智能的仓库。举个例子, Ken Mac 正在为 Giant Giant 集团构建一座机器人仓库。

接下来,让我们聚焦工厂领域,工厂的生态系统截然不同。富士康为例,他们正在建设世界上一些最先进的工厂。这些工厂的生态系统,同样涵盖边缘计算机、机器人软件,用于设计工厂布局、优化工作流程、编程机器人,以及用于协调数字工厂与 AI 工厂的 PLC 计算机。我们同样为这些生态系统中的每一个环节,提供了 SDK 接口。

这样的变革,正在全球范围内上演。富士康与 Delta ,正为工厂构建数字孪生设施,实现现实与数字的完美融合, Omniverse 在其中扮演至关重要角色。同样值得一提的是,和硕与 Wistron 也在紧随潮流,为各自机器人工厂建立数字孪生设施,这令人兴奋。

接下来,请欣赏一段富士康新工厂的精彩视频。

机器人工厂由 3 个主要计算机系统组成,在 NVIDIA AI 平台上训练 AI 模型,我们确保机器人在本地系统上高效运行,以编排工厂流程。我们利用 Omniverse 这一模拟协作平台,对包括机械臂与 AMR 自主移动机器人在内的所有工厂元素,进行模拟。值得一提的是,这些模拟系统均共享同一个虚拟空间,实现无缝的交互与协作。

当机械臂与 AMR 进入共享的虚拟空间时,它们能够在 Omniverse 中模拟出真实的工厂环境,确保在实际部署前进行充分的验证与优化。

为了进一步提升解决方案的集成度与应用范围,我们提供 3 款高性能计算机,并配备加速层与预训练 AI 模型。我们已成功将 NVIDIA Manipulator ,与 Omniverse 和西门子的工业自动化软件与系统相结合。这种合作,使得西门子在全球各地的工厂中,都能够实现更高效的机器人操作与自动化。

我们还与多家知名企业建立合作关系。例如, Symantec Pick AI 已经集成 NVIDIA Isaac Manipulator Somatic Pick AI 成功运行并操作了 ABB KUKA Yaskawa Motoman 等知名品牌的机器人。

机器人技术与物理 AI 的时代已经到来,它们正在各地被广泛应用,这并非科幻,而是现实,令人倍感振奋。

展望未来,工厂内机器人将成为主流,它们将制造所有产品,其中 2 个高产量机器人产品尤为引人注目。

首先是自动驾驶汽车或具备高度自主能力的汽车,英伟达再次凭借全面的技术堆栈在这一领域发挥核心作用。

2025 年,我们计划与梅赛德斯 - 奔驰车队携手, 2026 年与捷豹路虎 JLR 车队合作。我们提供完整的解决方案堆栈,客户可根据需求,选择其中任何部分或层级,整个驱动堆栈都是开放与灵活。

另一个可能由机器人工厂高产量制造的产品,是人形机器人。 近年来,在认知能力与世界理解能力方面,取得巨大突破,这一领域的发展前景令人期待。 我对人形机器人特别兴奋,它们最有可能适应我们为人类所构建的世界。

与其他类型机器人相比,训练人形机器人需要大量数据。 我们拥有相似体型,通过演示与视频能力,提供的大量训练数据,将极具价值。 我们预计这一领域,将取得显著的进步。

现在,让我们欢迎一些特别的机器人朋友。机器人时代已经来临,这是 AI 的下一波浪潮。

中国台湾制造的计算机种类繁多,既有配备键盘的传统机型,也有小巧轻便、便于携带的移动设备,以及为云端数据中心提供强大算力的专业设备。

展望未来,我们将见证一个更为激动人心的时刻,制造会走路、四处滚动的计算机,即智能机器人。

这些智能机器人,与我们所熟知的计算机,在技术上有着惊人的相似性,它们都是基于先进的硬件与软件技术构建的。 我们有理由相信,这将是一段真正非凡的旅程。

阿里董事长蔡崇信:训练 AI 模型就像教育孩子,学习三、四年就能赶超人类博士
时间: 2024 6 1
来源: 腾讯科技
字数: 6,353

2024 5 23 日,摩根大通在上海举办第 20 届全球中国峰会,阿里集团董事长蔡崇信,与摩根大通北亚区董事长兼大中华区投资银行业务副主席 Kam Shing Kwang 进行对话。 此次对话中,蔡崇信详细剖析 AI 带来的价值与机遇,涉及 AI 学习曲线、 AGI 前景、云与 AI 融合应用、 AI 在垂直领域具体实践、不同大模型间如何协同工作等方面。

蔡崇信专访主要观点:

AI 是非常重要的领域,发展道路绝非单行道。这让我想起约吉 · 贝拉 Yogi Berra 名言,他说当你站在人生岔路口时,只管勇敢前行。

我们是在中国云计算与 AI 领域,均具备强大竞争力的公司之一,云计算与 AI 的深度融合非常重要。

我们看到 AI 巨大潜力,这就是我们全力以赴投入的原因。

对于 AI 门外汉而言,理解复杂性,就如同培养一个孩子。从初中到高中,再到大学,直至获得博士学位。当人们谈论大模型的学位时,他们是在比较各自技术的深度与广度。就像说我孩子拥有 3 个博士学位,精通生物学、数学、心理学。

根本上讲,作为科技领域的先驱,我们坚信机器智能将持续进步,未来机器将变得越来越智能。

在阿里,我们重视 AI 在多个垂直领域的应用,当我们在电商看到 AI 实际用例时,效果令人难以置信。

任何希望利用我们 AI 技术的客户,都离不开云算力支持,当他们在我们平台上使用开源 AI 时,同样需要强大算力支持,这正是我们云计算收入增长的关键所在。

阿里的焦点始终放在增长上,我们致力技术创新,并将这些技术应用于我们核心业务,为客户创造价值,最终也为我们股东带来回报,在竞争激烈的市场中,你必须保持一种成长型的心态,这正是我们所秉持的。

蔡崇信与 Kam Shing Kwang 对话全文:

Kam Shing Kwang 无需我过多介绍蔡崇信,但我仍想特别提及的是,在他众多的身份中,他不仅是一位热忱的慈善家,更是布鲁克林篮网队的老板。

我深感荣幸,今天能够在此与你进行对话。马云曾在 2005 年我们的第一届峰会上发表过演讲,我们非常荣幸与高兴能在 20 周年峰会上邀请到你。

我们深入探讨阿里业务之前,我希望先听听你对于布鲁克林篮网队与纽约自由人队接下来赛季的展望,以及我们是否能期待他们前往中国进行巡演?

蔡崇信: 首先,非常感谢你们的邀请,能站在这个舞台上是我的荣幸。我也要向你们表示祝贺,第 20 届中国全球峰会的成功举办。

关于纽约自由人队 WNBA 篮球队之一的比赛,新赛季已经拉开帷幕,我们目前战绩为四战全胜,这对我们来说是个好兆头,预示着接下来赛季会很顺利。

至于布鲁克林篮网队,我们正处于关键的转折点上。 我认为我们上赛季表现并未达到预期,我们未能进入季后赛。 我们希望重新调整球队,确保我们能够长期竞争。

当被问及作为老板,想要为球队带来什么时,我认为赢在当下与建立可持续的赢球文化之间存在显著差异。 如果仅追求眼前胜利,我们可能会牺牲球队的未来,而采取短期的交易策略。 我的愿景,是为布鲁克林篮网队构建长期、稳健、能够持续赢得比赛的文化。

重组赋予年轻 CEO 更多权限,专注两大核心业务

KAM SHING KWANG 这种哲学似乎适用于阿里, 2023 9 月接任阿里董事长以来,你已经对管理层进行全面重组,推行一系列变革。

能否与我们分享一下这些变革背后的理念?特别是,你将如何激发阿里持续增长的创新精神,这种精神曾推动阿里从服务中国小企业的市场起步,发展到如今拥有超过 10 亿消费者的跨国科技巨头。我们注意到,有批评声音认为,最近 1 年重组中,这种创新精神可能有所减弱。

蔡崇信: 大约 1 年前,我们决定进行重大重组。背后主要考虑,是希望确保我们决策更加迅速高效,我们赋予更多业务团队主管自主权。让一个集团 CEO 每天做出上百个决策,不切实际。我们通过权力下放,让业务部门与年轻人才拥有更多决策权,以缓解 CEO 工作压力。

我们进行一系列人事调整,我的现任职位便是这些调整的产物。

令人欣慰的是,我现在与一位比我年轻许多的 CEO 共事,他是负责日常运营的吴泳铭。他在公司内部享有极高威望,他曾是公司创始成员之一。我们都曾共同在 1999 年那个公寓里奋斗,他参与了主要平台如淘宝、支付宝,以及这些平台货币化技术的开发。吴泳铭拥有出色的领导才能,他完全有能力担任公司 CEO

这个新架构下,我们目标更加专注。 如果你看今天阿里,我们向员工传达的内部信息是,我们将专注两大核心业务: 电商与云计算。 我们还有许多支持这些核心业务、对公司具有战略意义的业务。

我们通过饿了么平台涉足外卖业务,外卖配送是否是我们核心业务? 或许不是。 但饿了么对我们来说,具有极高战略价值,它建立的即时配送基础设施,不仅可以用于送餐,还能运送药品、鲜花、水果等新鲜易腐物品。

这种基础设施,对我们来说是战略性的,它是我们业务不可或缺的一部分。 这个过程中,我们已经明确哪些是核心业务,哪些是战略性的支持业务,以及哪些是非核心业务或金融投资,我们将根据情况逐步调整与优化这些业务。

训练 AI 模型就像教育孩子,阿里三种方式参与 AI 竞争

KAM SHING KWANG 本次峰会讨论中, AI 成为核心议题,阿里是生成式 AI 领域积极投资者。请你分享一下,你认为未来几年 AI 在全球将扮演怎样的角色,以及具体在阿里, AI 又将如何发展?

蔡崇信: 对于我这个非 AI 领域的人来说,坐在此处谈论它,就像是班门弄斧。

请允许我以门外汉的视角,尝试解读这一前沿科技。我们观众中不乏有 AI 领域精英,他们日复一日致力于相关研究。

对于我这样的门外汉,理解 AI 的一个直观方式,便是观察当前它如何聚焦于大语言模型 LLM 。这些模型试图模拟人脑,以实现接近人类智能的机器智能,这一过程犹如我们教育孩子。

想象一下,你将孩子送入小学、初中、高中,直至大学,他们最终可能获得博士学位,甚至多个领域的博士学位,这正是大语言模型 LLM 竞赛的实质。

当人们竞相展示各自大语言模型 LLM 时,他们是在说:我有一个拥有三个博士学位的孩子,他在生物学、数学、心理学等领域都很精通。

关键在于,如果我们从教育孩子角度来理解 AI 与机器智能的训练,就会意识到,培养一个优秀人才,需要漫长的过程,从小学到大学毕业,通常需要 16 年,甚至更久,他们还可能继续深造,攻读研究生、博士学位。

令人惊叹的是,我们仅用 3~4 年时间,就让大语言模型 LLM 在知识与某些数学计算方面达到与人类相当的水平,甚至在某些方面达到博士生水平。这种进步的速度之快,既令人感到害怕,又让人觉得不可思议。

阿里在 AI 领域,有三种不同参与方式。

首先,作为一家科技公司,我们深信机器智能将不断进步,机器将变得越来越聪明。当前,很多人都在谈论 AGI ,即达到通用智能的理想状态。我们坚信,具体实现,取决于对 AGI 的不同定义,未来的某一天,我们必将拥有具备 AGI 特性的机器。

就像某些孩子,他们可能物理学的非常好, AI 也将同样擅长物理。如果你让它们一天内交 10 个朋友, AI 可能做不到。某些方面,机器甚至可能比人类更聪明,但在其他方面,还是不如人类。

我们坚信 AGI 的愿景,并相信 AI 会持续提升。如今,随着扩展定律的提出,我们更加确信,通过不断增加数据资源与算力,大语言模型 LLM 在性能上的提升,将呈现超线性的增长趋势。这是一个惊人的现象,它意味着只要持续为机器提供数据,智能水平就能不断提升。

数据之于机器,就如同食物与书籍之于人类,是成长与进步的关键。在这样理念指引下,阿里已经开发出通义千问的大语言模型 LLM 。这款模型,在中国处于领先地位,并在全球范围内展现出强大竞争力。它是云计算与 AI 完美结合的产物,也是我们追求智能发展愿景的具体实践。

其次,我们拥有蓬勃发展的云计算业务。在业界,阿里可能是极少数同时拥有强大 AI 业务与领先云计算业务的公司之一。

深入剖析行业格局,你会发现微软与 OpenAI 虽建立紧密合作,两者的独立地位,意味着他们未来可能分道扬镳。

微软,并未拥有自主的 AI 开发能力,他们基本上将这项工作外包给 OpenAI

亚马逊,在云计算领域有所建树,缺乏自主研发的大语言模型 LLM

Meta ,推出开源大语言模型 Llama ,在云计算方面尚未建立起坚实基础。

谷歌,是美国公司中唯一在云计算与 AI 领域均具备竞争力,它在这两项业务中的排名均为第三,一些人认为谷歌在某些方面可能还无法与 OpenAI 匹敌。

阿里独树一帜,我们不仅在云计算领域处于领先地位,更在 AI 领域展现出强大的竞争力。这种 AI 与云计算的紧密结合至关重要,任何使用我们 AI 服务的人,无论是通过开源版本,还是专业版 API 访问,都离不开强大的云算力支持。

我们建立了全球最大的开源 AI 社区 ModelScope ,汇聚众多其他公司开源 AI 技术。当用户在我们社区内使用这些开源 AI 工具时,他们自然需要计算资源,这正是我们云计算收入得以增长的重要推动力。上一季度,我们 AI 业务在云计算中收入实现三位数增长,这证明 AI 与云计算结合的巨大潜力。

我们参与 AI 第三种方式,是将其广泛应用于垂直领域。我们坚信,在多个垂直领域中运用 AI 技术至关重要。以电商为例,通过 AI ,我们能够更精准推荐消费者购买哪些产品。

例如,当你想要为朋友选购生日礼物时, AI 可以帮助你挑选出最合适的礼物。同样,在虚拟试衣间体验中, AI 能模拟出衣物在你身上效果,帮助你判断衣物是否适合。

AI 可以作为你的个人助理与客户服务代表,提供及时、贴心的服务。这些在电商中的 AI 应用案例令人难以置信,充分展示巨大的潜力与优势。通过这些方式,我们深入参与并致力于 AI 发展,我们坚信它将为未来带来更多可能性,这正是我们全力以赴投入 AI 领域的原因。

KAM SHING KWANG 阿里云作为亚太地区最大的云计算平台,你们同时拥有云业务与 AI 业务的独特地位令人瞩目。

我非常喜欢你们将 AI 的发展,与养育孩子相比较的比喻。作为 2 个孩子的母亲,我深知抚养孩子的艰辛与漫长。

除了你们自主研发的大语言模型 LLM 外,你们还对另外 5 个大语言模型 LLM 进行战略投资。你们是否看到这些模型之间的协同效应,以及你们如何评估这些投资的进展?

蔡崇信: 大语言模型 LLM






请到「今天看啥」查看全文