专栏名称: 招商电子
招商证券电子行业研究,关注最新科技趋势与大陆电子产业链,提供A股电子上市公司专业投资观点。
目录
相关文章推荐
北京晚报  ·  再见天坛!北京口腔医院主院区开诊—— ·  昨天  
北京晚报  ·  再见天坛!北京口腔医院主院区开诊—— ·  昨天  
TGB湖南人  ·  【12.26复盘】微盘股的反击。。。 ·  3 天前  
51好读  ›  专栏  ›  招商电子

【招商电子】英伟达 GTC 2024 跟踪报告:见证 AI 的变革时刻,关注新平台的增量变化和前沿应用

招商电子  · 公众号  ·  · 2024-03-19 21:58

正文

 点击招商研究小程序查看PDF报告原文

事件:

英伟达GTC 2024大会于3月18-21日举办,英伟达CEO黄仁勋于3月18日发表主题演讲,介绍AI加速计算的新品,以及AI技术在机器人、汽车、工业和医疗等前沿领域的应用。综合演讲及材料信息,总结要点如下:


评论:

1、本次大会最新推出为万亿参数级生成式AI打造的英伟达Blackwell平台。

Blackwell GPU平台:1)2080亿个晶体管的AI芯片;2)第二代Transformer引擎;3)第五代NVLink;4)RAS引擎;5)安全AI;6)解压缩引擎。训练1个GPT-MoE-1.8T模型,需要8000个Hopper GPU训练,功耗15MW,若采用Blackwell架构,只需要2000个GB200 NVL72 GPU,功耗仅4MW。Blackwell单die:1040亿个晶体管,台积电4NP,Hopper AI性能的5倍,AI算力20petaFLOPS,192GB HBM3e。Blackwell GPU:2 die互连,2080亿个晶体管。新方案有两种系统:1)配合原有的Hopper系统,直接代替原有的Hopper芯片;2)2*Blackwell GPU+1*Grace CPU直接集成到单块主板上。GB200:2*Blackwell GPU+1*Grace,382GB HBM3e,900GB/s的NVLink-C2C带宽。GB200 Grace Blackwell Superchip:40 petaFLOPS AI算力。Blackwell计算节点:4*Blackwell GPU+2*Grace CPU,80 petaFLOPS AI算力,1.7TB HBM3e,32TB/s内存带宽,液冷MGX设计。GB200 NVL72:可视作One giant GPU,18 trays/rack,72*Blackwell GPU+36*Grace CPU,1.4 exaFLOPS AI算力,拥有高达30TB的HBM3e。


2、全新机架背部高速铜互连方案带来成本和功耗降低,GB200已支持液冷。

NVLink Switch System具有18个NVLink Switch芯片,72个1.8TB/s接口,全互连聚合带宽达130TB/s。对于GB200计算节点,NVLink Switch和Spine由72个Blackwell GPU采用NVLink全互连,具有5000根NVLink铜缆(合计长度超2英里),NV表示铜互连可带来6倍的成本降低。整个机架功耗达120kW,如果采用光模块方案,功耗将达20kW,仅光模块部分的2kW功率就可驱动NVLink Spine,铜互连方案能带来大幅功耗降低。GB200还支持液冷方案,冷却液25度进45度出,流量达2升/s,可使机架冷却功耗2X减少。


3、网络和互连产品再发力,NVLink Switch芯片已采用和Blackwell相同工艺。

NVLink Switch芯片:500亿晶体管,台积电4NP,72接口双200Gb/s Serdes,助力GPU间全速互连。NVLink Switch System:18个NVLink Switch芯片,72个1.8TB/s接口(或采用高速背板连接器),全互连聚合带宽达130TB/s。Quantum InfiniBand Switch:800Gb/s的单接口吞吐量,230.4Tb/s的聚合双向吞吐。还展示了Quantum-X800 InfiniBand和Spectrum-X800以太网交换机。


4、苹果Vision Pro正式接入Omniverce,JETSON助力下一代机器人发展。

英伟达在大会上展示了NV Omniverse Cloud、NV HEALTHCARE、NVIDIA BioNeMo NIMs等多种云服务工具,会上宣布目前苹果Vision Pro已经接入NV Omniverce Cloud。公司定义新一代工业革命五要素为:新产业、Blackwell平台、NIMs、NEMO和英伟达AI Foundry、Omniverce和Isaac robotics。公司发布新加速生态系统合作伙伴,包括Ansys、Synopsys、Cadence等,持续和谷歌、微软、比亚迪、西门子等各领域客户展开深度合作。黄仁勋在主题演讲末尾还现场展示了和下一代机器人的互动场景,发布了Isaac机器人平台,相关硬件产品包括JETSON THOR ROBOTIC COMPUTE & Stack等。


投资建议:本次英伟达GTC大会发布了全新Blackwell GPU架构,展示了新一代加速计算产品,同时展示了英伟达计算和云服务能力在Vision Pro、下一代机器人等热门领域的应用。我们详细整理了主题演讲全文,建议关注英伟达及其产业链标的,包括服务器硬件层面所涉及到的GPU/CPU、存储、高速连接器和电光连接、PCB/IC载板、散热、电源、模拟芯片、接口类芯片、RAID卡、功率器件等零部件的投资机会,以及相关终端及应用生态链。同时考虑到NV禁令影响持续,建议持续关注建议关注国产GPU/CPU厂商和华为昇腾等自主算力产业链相关公司,以及先进封装和HBM等产业链机会。我们梳理了算力相关电子产业链公司列表,考虑到本次铜互连的边际变化,可重点关注在高速背板连接器和高速铜缆电连接全球技术领先,并能提供电光混合方案、热管理和电源系统方案的增量标的    


风险提示:竞争加剧风险、贸易摩擦风险、行业景气度变化风险、宏观经济及政策风险。



附录:英伟达GTC 2024主题演讲纪要


时间:2024年3月18日

主讲人:英伟达创始人黄仁勋


背景介绍:英伟达成立于1993年。2006年,CUDA 被证明是一种革命性的计算模型。二十年后的2012年,Alex Net AI和Kuda在2016年首次接触,产生了一种全新类型的计算机:DGX1,在这台超级计算机中,8个GPU连接在一起,可实现170万亿次浮点运算。第一台DGX1交付于位于旧金山的一家名为OpenAI的初创公司。DGX1是世界上第一台人工智能超级计算机。2022年,Transformer问世,ChatGPT让人们认识到人工智能的重要性和能力。2023年,随着生成式AI的出现,一个全新的行业开始,其制作软件的方式与之前在数据中心所做的任何事情都不同。


下面将讨论下一步如何进行计算,由于新产业的出现又将构建什么样的软件?新软件在新产业中又是如何应用的?以及我们应该做什么准备?

1、公司发展“新加速生态系统”合作伙伴,包括Ansys、Synopsys、Cadence等


加速计算比通用计算有了大幅提升。首先,公司将宣布一些新的合作伙伴,以加速整个AI生态系统,能够将世界带入加速计算。


合作伙伴:

1)Ansys在对世界制造的产品进行工程模拟,公司正在与其合作,将Ansys与Omniverse Digital twins连接起来。视频GPU加速系统的install basis遍布世界各地的每个云、每个系统、所有企业。因此,他们所加速的应用程序将拥有巨大的install basis来服务最终用户,系统制造商和CSPs也会有巨大的客户需求。


2)Synopsys是英伟达的第一个软件合作伙伴。Synopsys通过高级设计彻底改变了芯片行业。公司正在加速计算光刻技术,将光刻技术推向极限。Nvidia创建了一个特定领域的库,可以极大地加速计算光刻,台积电和Synopsys也将突破性的英伟达计算光刻平台投入生产。下一步是将生成式人工智能应用于未来的半导体制造,进一步推动几何学的发展。


3)Cadence构建了世界上重要的EDA和SDA工具,英伟达也在使用Cadence。他们还利用Nvidia GPU构建了一台超级计算机,以便客户能够进行约100万倍倍规模的流体动力学模拟。


2、公司发布新产品Blackwell GPU系列,将大幅提升算力,降低能耗


随着Transformer模型的发明,算力需求激增

英伟达正在加速全球CAE、EDA和SDA的发展,以便能够在数字孪生中创造未来。公司将把它们全部连接到Omniverse,这是未来数字孪生的基本操作系统。大型语言模型是从中获益匪浅的行业之一,在Transformer模型发明之后,我们能够以令人难以置信的速度扩展大型语言模型,实际上每六个月就能翻一倍,我们也需要更强的算力。最新、最先进的OpenAI模型大约有1.8万亿参数。1.8万亿参数需要数万亿的token来训练,每秒大约需要进行300、400甚至500万亿次浮点运算。


SELENE与EOS:

将大量GPU堆叠在一起的同时还需要创新更多的技术,比如tensor cores、NV link。DGX1是公司的第一个版本,但不是最后一个版本,公司一直在建造超级计算机。2021年,SELENE有大约4500个GPU,到2023年,公司建造了世界上最大的人工智能超级计算机之一EOS。编写一个在整个系统上运行的软件,将计算分布在数千个GPU上,但内部有数千个更小的GPU,数百万个GPU来分配工作,平衡工作量,以便可以获得最高的能源效率、最佳的计算时间,降低成本。

在ChatGPT之后,我们需要更大的模型,我们将使用多模态数据来训练它,而不仅仅是互联网上的文本,我们将使用文本、图像、图形和图表来训练它,以便这些模型能够理解物理学,通过观看世界各地的大量视频以及世界各地的多种语言,这些模型将具有常识。但这会增加我们拥有的数据量,我们将不得不建造更大的GPU。


Blackwell,当今世界上生产的最先进的GPU。Blackwell芯片有2080亿个晶体管,所有这些晶体管几乎能够同时访问与芯片连接的内存,由此构建的Grace- Blackwell系统,由两个Blackwell GPU和4个Blackwell dies组成的Grace CPU进行配对,NV link位于顶部,PCI Express位于底部。


同时公司发明了另一种transformer engine。它能够动态地、自动地重新缩放和重新转换数字格式到较低的精度。新一代transformer engine配有第五代NV link。它的速度是Hopper的两倍,其运算时众多GPU一起工作,彼此共享信息,互相同步和更新。尽管它是每秒1.8TB,但实际上比这个数字要高,所以它是Hopper的很多倍。另外公司在超级计算机中安装了Ras引擎,这是一种可靠性引擎,可以在系统测试中对Blackwell芯片上的每个gate、每个bit of memory以及与其连接的所有内存进行100%自检。就像为每个芯片都配备了自己的高级测试仪,用于测试芯片。Secure AI,能够确保数据不会丢失且不被污染。

因此,我们现在有能力对静态数据和传输中的数据进行加密。当它被计算时,它都是加密的。所以我们现在有能力加密和传输。当我们计算它时,它是在一个可信的引擎环境中。最后一件事是解压缩,当计算速度如此之快时,将数据移入和移出这些节点变得非常重要。因此,我们安装了high line speed compression engine,将计算机的速度提高了20倍。总体而言,与Hopper相比,FP8性能是其2.5倍。还有一种称为FP6的新格式。即使计算速度相同,但由于内存而放大的带宽,可以存储在内存中的参数数量现在也被放大,有效地使吞吐量翻倍。

公司为生成式人工智能创建了一个处理器,其中最重要的部分之一是content token generation,这是FP4的形式,需要大量的算力。摩尔定律表示算力每5年将增长2倍,每5年增长10倍,每10年增长100倍。而在过去的在八年时间中,我们将计算量增加了1000倍,推进计算的速度是疯狂的。

NVLink Switch Chip:

该芯片有500亿个晶体管,大小就和Hopper一样大。芯片中有四个NV Links,每秒1.8TB。它能使每个GPU同时以全速与其他GPU进行通信。如果能建立一个系统来做到这种通信,那么成本效益将非常高,我们可以把所有GPU通过一个连贯的链路连接起来,其能够成为一个巨大的GPU。

为使该芯片具有成本效益,该芯片直接使用铜缆,最终建立如下系统。这个系统就是DGX。六年前公司送给OpenAI第一台DGX,那台DGX可进行每秒170万亿次浮点运算,即0.17 PFLOPS。而现在其能达到720 PFLOPS,接近1 Exaflops,是世界上第一台单机柜实现1 Exaflops的机器。在机器的背面,DGX NV Link Spine可实现每秒130TB,这比互联网的总带宽还要多,可实现一秒钟内把东西发送给每一个人。并且这里有总共5000条NV Link电缆,总计两英里。

如果要使用光芯片,我们就必须要使用Transceivers和ReTimer,而仅此二者就需要耗费两万瓦来驱动NV Link Spine。然而现在,我们在NV Link Switch可节省下这20千瓦来用于计算。整机柜是120千瓦,节省的20千瓦产生了巨大的差异。并且该机柜采用液冷模式,放入温度为25摄氏度,取出温度是45摄氏度。过去HGX的GPU重70英镑,具有35000个零件。现在的DGX GPU有60万个零件。


接下来展示DGX的实际应用。在过去如果要训练一个1.8万亿参数的GPT模型,需要大约3至5个月、25000安培。如果用Hopper来训练,需要8000个GPU,消耗15兆瓦的电力,大约需要90天。如果用Blackwell来训练,仅需2000个GPU,同样需要90天。但是仅需消耗5兆瓦的电力。

公司的目标是不断降低成本和能耗,从而继续扩大算力来训练下一代模型。不光是训练,推理与生成同样重要。目前NVIDIA GPU有一半的时间在云上用于生成token,或者使用ChatGPT以及其他不同模型在生成图像、生成视频、生成蛋白质或者化学物质。这些生成都基于推理的计算范畴。对于大语言模型而言,推理是极其困难的,因为这些大语言模型有几个属性。1)第一,其非常大,不适用于一个GPU。在过去的超大规模计算中,应用程序都交给一台计算机,而现在Chatbot之类的推理程序需要一个超级计算机在后面运行,未来是由这些Chatbot来生成的,其背后蕴含数万亿的token与参数,必须以交互效率来生成token。生成token的能力十分重要,交互时我们只希望token能尽快回复,这需要很多GPU来实现。2)另一方面,吞吐率降低了成本,即生成每个token的成本,所以吞吐率决定了提供服务的成本。并且还需要token per user来代表服务质量。这两方面是相互竞争的,我们需要找到一种方法来将工作分配到不同的GPU中并同时实现二者。


GPU吞吐率与用户Token交互:

我们可以在图中看到,Y轴是每个GPU每秒token的吞吐率,X轴是每个用户每秒的token交互量。右上方是最好的,代表每个GPU每秒token的量很大,每个用户的交互性也很好。然而,这是很难做到的。蓝点都来自于对软件的重新划分。一些优化方案必须找出是否使用Tensor Parallel、Expert Parallel、Pipeline Parallel或者Data Parallel,然后将庞大的模型分布在所有不同的GPU上。如果没有NVIDIA GPU的可编程性,这方面探索是不可能的。正因为有CUDA这个丰富的生态系统,我们可以找到绿色的上限,在绿线上注意到有TP2、EP8以及DP4。这意味着2个Tensor Parallel、8个Expert Parallel以及4个Data Parallel。在另一端,也有4个Tensor Parallel与16个Expert Parallel。配置与软件分布的不同运行会产生不同的结果。绿色的上限只是一个模型代表电脑的一种配置。世界上的其余模型与电脑配置也许同样可用。

Blackwell与Hopper的对比:

现在将Blackwell与Hopper进行对比。在一代人的时间里,公司创造了一个万亿参数生成式AI的系统,Blackwell的推理能力已经超出了图表,约是Hopper的30倍左右。蓝线是Hopper。而如果没有改变Hopper架构,仅仅是把两个芯片连接起来得到一个巨大的2080亿参数的芯片,结果是紫色线,并没有达到预期效果。这就是FP4 Tensor Core,新的变压器引擎以及非常重要的NV Link Switch,使得GPU能够共享结果,相互通信。NV Link Switch的通信速度比过去使用最快的网速还要快接近10倍。Blackwell将是一个生成式AI的系统,数据中心也将是一个AI工厂。AI工厂的目标是创造收入,而在此情况下,收入将不是电力而是智能。在两年前Hopper进入市场时,公司只有两个客户。现在的客户更多了。Blackwell将和全世界的AI公司合作,每个CSP已经准备就绪,世界各地的OEM、ODM、区域云、Sovereign AI与通信公司都和Blackwell签署了协议。Blackwell将是公司历史上最成功的发布产品。


3、微软、AWS、谷歌等一众科技巨头都是Blackwell的首批用户


AWS:AWS在为Blackwell做好准备,将建立第一个带有安全AI的GPU,建立一个222 Exaflops的系统。并且公司也正在积极建造数字孪生。除基础设施外,公司还与AWS做了很多合作,如:加速SageMaker AI、Bedrock AI。Amazon Robotics也在通过使用NVIDIA Omniverse和 Isaac Sim与公司合作。AWS健康也集成了NVIDIA 健康。因此AWS在加速计算方面取得了很多进展。


谷歌:谷歌同样在为Blackwell做准备。GCP已经具备A100s、H100s、T4s、L4s等整个英伟达CUDA GPU系列。谷歌近期公布的Gemma模型在其基础上运行。公司正在努力优化与加速GCP的各个方面,如:数据处理引擎、Jax、XLA、Vertax AI等。因此公司正在与谷歌开展一系列项目。


Oracle:Oracle也在为Blackwell做准备。Oracle是公司在NVIDIA DGX Cloud上重要的合作伙伴。双方在共同努力加速Oracle Database。


微软:微软与公司有广泛的合作关系,公司正在加速各种服务。公司建设了最大的NVIDIA InfiniBand超级计算机,将生态系统、Cloud、Omniverse、Healthcare引入Azure,所有这些都和微软Fabric深度集成与连接。


4、AI将应用于各个行业,构建全新数字化时代


全行业都在为Blackwell做准备,目前的大多数场景都是Blackwell的真实设计。公司全部产品都有数字孪生体,其帮助公司在第一时间构建复杂的东西。而能建设一个数字孪生体来打造电脑,电脑又在数字孪生体之中,这也是Wistron正在做的。为满足英伟达加速计算的需求,在最新的工厂使用Omniverse SDK与API开发定制软件来构建HGX与DGX数字孪生体。


1)AI应用于工厂:


纬创从数字孪生开始,将其多维CAD与过程模拟数据集成到一张统一视图中,在这个物理精确的数字环境中进行测试与优化布局,使工作效率提高51%。在构建过程中,使用Omniverse数字孪生来验证物理构建是否与数字计划相匹配,尽早识别任何差异,从而避免对昂贵订单进行更改。使用数字孪生帮助Wistron的工厂上线,仅需两个半月而非之前的五个月。Omniverse数字孪生有助于快速回收,测试新布局以适应新工艺或改善现有空间的操作,并使用生产线上每台机器的实时物联网数据监控实时操作,最终使Wistron生产周期时间缩短50%,次品率降低40%。借助英伟达AI与Omniverse,英伟达的全球合作伙伴生态系统正在打造一个加速AI数字化的新时代。

2)数字化各种形式之间的相互转化:


首先对物品进行数字制造,之后再用物理制造,这就是未来的方式。而让公司将一切都投入到这个不可思议的创意的原因是2012年的Alex Net。把一只猫的图片输入电脑,会显示“Cat”。把100万个RGB形式的数字输入这个软件,在维度上进行压缩与缩小,最终输出成三个字母、一个向量、一个数字。这只猫是广义的,可以是不同的猫,这将是一种全新的编写软件的方式。而如今,这可以反着进行,输入三个字母,最终出来一只猫的图片,用三个字母生成了一百万个像素。自2012年的十年后,我们已经可以识别文本、图像、视频、声音等,还可以理解其含义。除文本与图像,公司还数字化了其他东西,如:蛋白质、基因、脑电波等。只要能数字化的东西,我们就能从中学到一些模式,从而理解其意义,最终或许可以生产它。生成式人工智能革命的意义就在此。

3)AI驱动的天气预报


那我们还能生成什么呢?我们想要了解气候,以及如何在区域尺度上以足够高的分辨率来预测未来的天气。极端天气给世界造成了1500亿美元的损失,然而这种损失并非平均分布,而是集中在世界上的一些地区。对于世界上的一些人而言,他们需要适应并且知道未来会发生什么。因此,公司创造了Earth-2,地球的数字孪生体来预测天气。最终公司产生了一项非凡的发明,即CorrDiff。随着地球气候的变化,AI驱动的天气预报使得人们能够更准确的预测与跟踪极端天气,如2021年在台湾及周边地区造成广泛破坏的强风暴。目前的AI预测模型可以准确预测风暴的轨迹,但分辨率仅限25公里,可能错过重要细节。英伟达CorrDiff是一种革命性的生成式AI模型,训练于高分辨率雷达、WRF天气预报以及ERA5分析数据等。通过使用CorrDiff,类似台湾的极端天气可以从25公里的分辨率提升到2公里的超级分辨率,速度是传统天气模型的1000倍,能源效率是传统天气模型的3000倍。通过将具有准确度与速度的英伟达天气预测模型、预测网络与CorrDiff此类生成式AI进行结合 ,我们可以探索数百甚至数千公里尺度的区域天气预测,为风暴的最佳、最差、最有可能影响提供清晰画面,这些信息可以最大限度地帮助减少生命与财产损失。目前CorrDiff在针对台湾进行优化,很快将作为英伟达Earth-2的一部分在全球很多地区提供。天气公司必须信任全球天气预测的来源。公司正在共同努力加速天气模拟第一原则基础上的模拟。并且天气公司也将整合CoreDiff,从而帮助企业与国家进行区域高分辨率天气预测。

4)AI医疗服务:


在15年前就开始的视频医疗领域令公司十分自豪。无论是医学成像、光泽测序还是计算化学,公司都在后方进行算力提供。但想象一下,所有AI模型都用作生成图像与音频。公司对基因、蛋白质、氨基酸所做的所有数字化,现在都通过机器学习来传递,使得我们能够理解生命的语言。公司通过AlphaFold看到了第一个证据。经过几十年努力,世界上只有使用低温电子显微镜与晶体X射线晶体学能够重建20万个蛋白质。而不到一年时间,现在AlphaFold已经重建了两亿个蛋白质,几乎涵盖了每一个活着的被测序过生物的蛋白质。这些模型很难使用,公司要做的就是为世界各地的研究人员建立这些模型。这不是唯一的一个模型,公司还会创造更多模型。

5)AI药物筛选:


新型药物的虚拟筛选在计算上十分棘手,现有技术只能扫描数十亿种化合物,需要在数千个标准计算节点上花费数天时间才能识别出新的候选药物。NVIDIA BioNeMo NIMs实现了新的生成筛选范例,使用NIMs进行蛋白质结构预测,使用MolMIM生成AlphaFold分子并于DiffDock对接,可以在几分钟内生成和筛选候选分子。MolMIM可以连接到自定义应用程序来引导生成过程,迭代优化所需属性。这些应用可以用BioNeMo微服务来定义,也可以从零开始构建。基于物理的模拟优化了分子与目标蛋白质结合的能力,同时优化了其他有利的分子特性。与此同时,MolMIM产生高质量药物,与靶标结合,在速度更快的同时药物开发成功的概率也更高。BioNemo正在为药物发明提供一个新的范例。

6)NIM:


NVIDIA MolMIM、CorrDiff等很多模型,都是开创性的,但是企业却很难带入到公司内部并整合进工作流程中。推理是一种非同寻常的计算问题,对每一个模型进行优化,并把运行超级计算机所需的计算堆栈放在一起,使企业能够运行这些模型,英伟达为此发明了一种新的方式来方便客户接收与操作软件。这个软件称为NVIDIA Inference Microservice,简称NIM。这是一个预先训练好的模型,经过打包与优化可以在NVIDIA庞大的安装基础上运行。里面有所有的预训练状态的ARB开源模型,其中有些来自于英伟达,有些是合作伙伴创建的。CUDA、RTLM、Tensor、Inference Server等都被打包在一起。它的优化取决于GPU是单一的、多个或多节点的,并且可以与API连接在一起。AI API是一个可以与之交谈的接口。这些优化与打包好的软件包将会放在网站上,用于下载、随身携带或者在云上、数据中心、工作站运行。想象一下,在未来,Chatbots就在NIM中,你可以自行组装一系列Chatbots。

7)AI开发软件:


在未来如何开发软件?你不太可能从头开始或者写Python代码等,你很有可能会组建一支AI团队,使用一个超级AI,它来执行你给它的任务并将其分解为执行计划。执行计划的一部分可能会交给另一个NIM。那个NIM可能理解SAP,它会理解服务,从平台上检索信息,然后把结果交给另一个NIM,它来对结果进行计算,也许它只是一个优化软件或是一些基本的计算,它带着它的答案回来并于所有的答案组合,最终的正确答案会呈现给使用者。所以只要云数据中心有视频GPU,这些NIM就可以像团队来一起工作。英伟达整个公司现在都安装了NIM系统,到处创建Chatbots。其中最重要的自然是芯片设计师Chatbots. AI Co-pilot就是该聊天机器人与工程师一起设计的。公司也创造了Llama2,这是70B,并且也用NIM包装了。公司也会跟芯片设计Chatbot进行互动,向其提问、举例子、展示英伟达相关产品等,与一位员工给另一位员工上岗形式类似。因此,芯片设计师Chatbot的生产力可以通过NIM进行定制的方式来提高。并且客户可以在NeMo Microservices进行数据整理与准备,从而对Chatbot进行微调与答案评估。


在此,公司有三大支柱。1)第一个是为AI模型发明技术、运行AI模型并进行打包;2)第二个是创造工具与修改模型。3)第三个是基础设施,如果想部署模型,可以部署在公司的基础设施上如DGX Cloud,或者部署在本地。发明修改并部署的过程正如同英伟达带着想法去TSMC实现并把它带走。因此三大支柱就是NIM、NeMo Microservice与DGX Cloud。

AI Foundry和三大支柱NeMo、微服务和DGX云,你可以教他们做的另一件事是了解你的专有信息,在我们公司内部,绝大多数据都不在云中,它在我们公司内部,一直在使用,基本上是视频、智能,公司想学习这些数据的意义,就像我们学习刚刚谈到的其他任何东西的意义一样,然后重新索引。知识转化为一种新型数据库,称为向量数据库。基本上是用结构化或非结构化数据,你学会了它的意义,对此会议进行编码,现在变成一个人工智能数据库。将来,一旦你创造它你就可以和它对话。

举个例子,假设你创造了一大堆模态数据PDF,你带着PDF去你最喜欢的地方,公司可以对所有PDF文件编码。现在存储在向量数据库中的向量成为公司的专有信息,一旦掌握了这些信息可以和它聊天,所以只是在和数据库聊天。我们叫它lemon retriever,因为它最终工作是尽可能快的检索信息。NeMo帮助你创造所有这些东西,我们会有不同的名字,甚至有数字人类名字。

Coplit使用视频NeMo云服务,客户服务操作立即提供服务。他们在使用和视频人工智能Foundry来建立服务,协助虚拟助理,帮助建立他们的Gara generative人工智能代理。snowflake是一家全球存储云中数字仓库,每天为了10000家企业客户十亿次查询。


就像那些有NeMo和nymphs的矢量数据库和检索器,我们与Dell有很好的合作,当你准备好运行它需要一个人工智能工厂,没有人比Dell更擅长构建端到端系统,对于企业来说,这是非常大规模的系统,所以每个公司都需要建立人工智能工厂。

下一代机器人技术,物理,人工智能。到目前为止,我们讨论的所有人工智能是一台电脑,世界上很多数字文本格式,人工智能通过大量语言预测下一个单词,模仿我们,通过研究所有模式和所有其他先前例子,它必须立即上下文等等,但它一旦理解上下文实际上它在模仿你。我们把所有数据放入像dgx这样的系统里,把它压缩成一个大的语言模型,万亿参数变成了数十亿个参数,这些数十亿个参数成为你的人工智能。

重工业的未来始于数字孪生,人工智能代理帮助机器人、工人和基础设施在复杂的工业空间中导航不可预测的事件,人工智能代理将首先在复杂的数字双胞胎中构建和评估,这个100000平方英尺仓库的全宇宙数字双胞胎作为一个集成数字工人的模拟环境运行,AMR正在运行视频中Isaac接收器,在video metropolis中使用100台模拟天花板安装摄像机绘制整个仓库集中活动地图和amr路由规划。在这种物理精确模拟环境中,人工智能代理软件在回路测试使我们能评估和完善系统如何适应现实世界的不可预测性。在这一个事件发生在这个amr的计划道路上,当它移动去拿一个托盘时阻挡了它的路径。在视频中,metropolis更新并向coop发送实时占用地图,在coop中计算新的最佳路线,AMR能看到周围角落,提高任务效率,借助人工智能驱动的metropolis vision foundation模型,操作员甚至可以使用自然语言提问,可视化模型可以理解细微的活动,并可以提供即时的洞察力来改进操作,所有的审查数据都在模拟中创建并被实时传递人工智能运行,如视频推理、微服务或肢体,当人工智能准备好部署在物理双真实仓库我们连接大都会和isaac四肢能够持续改进数字孪生模型和人工智能模型的真实传感器。


记住未来的设施仓库、工厂、建筑物将由软件定义,所以软件正在运行,你测试软件来建造仓库,数字双胞胎中的优化系统,你刚才看到的机器人都在跑,他们自己的自主机器人堆栈。未来集成软件方式、未来机器人系统的cicd是数字双胞胎omniverse更容易访问,我们将创造omniverse cloud用于通道中的简单API,你可以将应用程序连接到它,在未来这会变得十分简单,有了这些应用程序,你会有神奇的数字双能力,我们也已经转向AI,并将其与聊天功能结合,语言十分复杂,你可以说英语它可以直接转成USD来回应,你也可以在这个世界上寻找信息,现在它在场景中被语义编码,所以你可以问一些特定的物体、条件、场景,它可以为你找到也可以与你合作。你可以用三维模拟生成一些东西,让我们看看这一切怎么运作的。我们与西门子有很好的合作,西门子是全球最大的工业工程和运营平台,这么多不同公司在工业领域,重工业是最大的前沿之一,我们现在终于有了必要的技术去创造真正的影响。西门子正在建设工业元宇宙,今天我们宣布西门子正在连接他们皇冠上的宝石。

视频加速器:西门子技术每天都在为每个人改变,团队中心acts,我们的主导产品,生命周期管理软件来自西门子加速器平台,每天都在被客户用来大规模开发和交付产品,我们将为西门子加速器产品组合带来加速计算、生成式人工智能和多样化集成。

支持将Omniverse和Vision Pro连接。

比亚迪将采用英伟达下一代智能汽车芯片Thor:

类人机器人:

公司开始在下一代机器人领域做一些真正伟大的工作,下一代机器人技术很可能是仿人机器人,我们现在有必要的技术,正如我之前描述的想象的必要技术。广义人形机器人在某种程度上可能更容易因为我们有更多的模仿训练数据可以提供给机器人,因为我们是以非常相似的方式制造,人形机器人可能更有用,因为我们创造了这个世界,一些我们可以相互操作并更好工作的东西,我们建立工作站、制造和物流方式,它们是为人类设计的,所以这些人形机器人可能效率更高。当我们创造的时候就像我们对其他人做的一样,整个堆栈自上而下基础模型通过观看视频来学习人类模仿人类的例子,它可以是视频形式/虚拟形式强化学习如何适应物理世界。同样的电脑将会进入机器人汽车,这台电脑将会运行在一个叫托尔的机器人里,它是为transformer model设计的。

GR00T项目:

我们开发了Isaac lab,这是一个机器人学习应用程序用于训练团队在全宇宙上,此外,我们还使用osmo扩展,这是一种新的计算编排服务。可以协调GDX培训系统和ovx模拟系统的工作流程,有这些工具我们可以训练集体和基于物理模拟,并将零射击转移到现实世界中,群体模型可以从少数人类演示中学习来帮组你完成日常任务,通过观察我们来模仿人类运动。


这是可能的令人反感的技术,可以了解人类从视频,训练模型中理解人类,并最终将他们部署到物理机器人上,使一切成为可能。将群体连接到一个大型语言模型甚至允许它通过遵循自然语言指令来生成动作。


所有这些不可思议的智能都是由新的喷气式飞机和雷神机器人芯片驱动的,为团队设计打造未来,Isaac实验室/osmo/Groot,我们正在为下一代人工智能机器人基因提供基础。

五个要素:第一,新工业革命,每个数据中心都应该加速,价值一万亿美元的安装数据中心,将在未来几年内实现现代化。第二,由于我们带来的计算能力,一种新的软件开发方法已经出现,生成人工智能,这将创造新基础设施,致力于只做一件事,不是针对多客户数据中心,而是人工智能生成器,这一代人工智能将创造出非常有价值的软件,这场革命的计算机生成人工智能万亿参数。第三,新计算机制造了新的软件类型,新的软件类型应该以新形式发布,这样它一方面可以成为云中一个端点,并易于使用,但仍然允许你带着它,因为这是你的智慧,你的智慧应该被打包,我们叫他们名字,这些名字将帮你创造面向未来的新型应用,不是你完全从零开始写的,但你会像团队一样整合他们,创建这些程序,我们有很强的能力,四肢之间,人工智能技术工具、NeMo和基础设施DGX云。在我们的人工智能Foundry,帮助您建造专有应用程序、聊天机器人。最后,未来所有的移动东西都将是机器人,你不会是唯一一个,这些机器人系统,不管是人形机器人、自动驾驶汽车、叉子操作手臂,他们都需要一样东西,巨大的体育场,仓库,工厂,可以有机器人编排的工厂,生产线是机器人建造,汽车是机器人,他们都需要一个数字孪生平台,我们称之为omniverse操作系统。

团队介绍


鄢凡:北京大学信息管理、经济学双学士,光华管理学院硕士,15年证券从业经验,08-11年中信证券,11年加入招商证券,现任研发中心董事总经理、电子行业首席分析师、TMT及中小盘大组主管。

团队成员:曹辉、王恬、程鑫、研究助理(谌薇、涂锟山、王虹宇、赵琳)。

团队荣誉:11/12/14/15/16/17/19/20/21/22年《新财富》电子行业最佳分析师第2/5/2/2/4/3/3/4/3/5名,11/12/14/15/16/17/18/19/20年《水晶球》电子2/4/1/2/3/3/2/3/3名,10/14/15/16/17/18/19/20年《金牛奖》TMT/电子第1/2/3/3/3/3/2/2/1名,2018/2019 年最具价值金牛分析师。

投资评级定义

股票评级

以报告日起6个月内,公司股价相对同期市场基准(沪深300指数)的表现为标准:

    强烈推荐:公司股价涨幅超基准指数20%以上

    增持:公司股价涨幅超基准指数5-20%之间

    中性:公司股价变动幅度相对基准指数介于±5%之间

    回避:公司股价表现弱于基准指数5%以上


行业评级

以报告日起6个月内,行业指数相对于同期市场基准(沪深300指数)的表现为标准:

    推荐:行业基本面向好,行业指数将跑赢基准指数

    中性:行业基本面稳定,行业指数跟随基准指数

    回避:行业基本面向淡,行业指数将跑输基准指数



重要声明

特别提示

本公众号不是招商证券股份有限公司(下称“招商证券”)研究报告的发布平台。本公众号只是转发招商证券已发布研究报告的部分观点,订阅者若使用本公众号所载资料,有可能会因缺乏对完整报告的了解或缺乏相关的解读而对资料中的关键假设、评级、目标价等内容产生理解上的歧义。

本公众号所载信息、意见不构成所述证券或金融工具买卖的出价或征价,评级、目标价、估值、盈利预测等分析判断亦不构成对具体证券或金融工具在具体价位、具体时点、具体市场表现的投资建议。该等信息、意见在任何时候均不构成对任何人的具有针对性、指导具体投资的操作意见,订阅者应当对本公众号中的信息和意见进行评估,根据自身情况自主做出投资决策并自行承担投资风险。

招商证券对本公众号所载资料的准确性、可靠性、时效性及完整性不作任何明示或暗示的保证。对依据或者使用本公众号所载资料所造成的任何后果,招商证券均不承担任何形式的责任。

本公众号所载内容仅供招商证券客户中的专业投资者参考,其他的任何读者在订阅本公众号前,请自行评估接收相关内容的适当性,招商证券不会因订阅本公众号的行为或者收到、阅读本公众号所载资料而视相关人员为专业投资者客户。