新智元报道,CES大会上,英伟达发布了新款RTX 50系列GPU,包括RTX 5090、RTX 5080和RTX 5070,并配备了全新的Blackwell GPU和Grace Blackwell NVLink技术。此外,还推出了全球最小AI超算Project Digits,搭载GB10 Grace Blackwell超级芯片,能在FP4计算精度下提供高达1 PFLOPS的性能。老黄宣布了新一代DLSS技术和一系列开放许可的基础模型。同时展示了智能体AI和Omniverse+Cosoms在自动驾驶汽车和机器人领域的应用。英伟达的最新估值已经达到了惊人的3.66万亿美元。
包括RTX 5090、RTX 5080和RTX 5070,具有强大的性能参数和配置,旨在提供高性能的图形处理能力。
Project Digits是一款桌面超级计算机,专为AI开发者、数据科学家等设计。它搭载了全新的GB10 Grace Blackwell超级芯片,提供强大的AI性能,可运行高达200亿参数的大模型。
英伟达展示了新一代DLSS技术,以及一系列开放许可的基础模型,如Llama Nemotron,这些技术旨在提高AI的精度和效率。
智能体AI和Omniverse+Cosoms在自动驾驶汽车和机器人领域的应用被展示。它们可以生成虚拟世界状态、视频,加速自动驾驶的研发,并提供物理真实的多元生成器。
英伟达股价大涨,创下历史新高,显示出市场对英伟达新产品和技术的强烈信心。
【新智元导读】
就在刚刚,RTX 5090震撼发布,国行版定价16499元!同时震撼亮相的,还有全球最小AI超算Project Digits,在办公桌上就能跑出数据中心级算力!这一刻老黄摆出别致pose,吸引了全球目光。
他来了,他来了,今天,老黄穿着崭新的夹克出场了。
刚刚的CES大会上,老黄宣布RTX 5090正式发布。
50系列GPU,价格如下——
RTX 5090系列和RTX 5080将于1月30日上市,RTX 5070 Ti和RTX 5070将于2月上市,RTX 50系列笔记本电脑将于3月推出
紧接着,老黄以一个别致的「美国队长」造型赢得全场喝彩,并
揭秘了全新的
数据中心超级
芯片——
Grace Blackwell NVLink7
2。
它配备了72个Blackwell GPU、1.4 exaFLOPS
算
力和130万亿个晶体管,
目标是超越世界最快超算。
随后,全球首款真正意义上的桌面超算——Project Digits震撼登场。
这款全球最小AI超算,售价仅3000美金。
有了它,200B大模型在办公桌上就能跑了。
也就是说,它只占用你桌面一个咖啡杯的体积,却能提供数据中心级的算力!
搭载全新GB10 Grace Blackwell超级芯片的Project Digits,能在FP4计算精度下,提供高达1 PFLOPS的性能。
老黄预言:在未来,每个数据科学家、研究者和学生的桌子上,都会有一台Project Digits这样的个人AI超算。
AI时代,将属于每一个人。
经过数月的泄密和小道消息,全新一代的RTX Blackwell GPU终于正式亮相了。
首先来看一波性能参数:
-
920亿个晶体管
-
4000 TOPS的AI算力
-
380 TFLOPS的光追算力
-
125 TFLOPS的着色器算力
-
32GB的GDDR7显存
-
1792GB/秒的内存带宽
-
值得注意的是,RTX 5090 D的AI算力只有2375 TOPS。
不过,虽然比满血版的5090少了一半,但至少比4090 D高了一倍。
如此豪华的配置,再加上DLSS 4和Blackwell架构的加持,RTX 5090的性能直接达到了RTX 4090的两倍之多。
然而,这也意味着它的功耗会很高,(RTX 5090的总显卡功耗为575瓦特,推荐电源供应器功率为1000瓦特)。
demo显示,在RTX 5090上运行《赛博朋克2077》时,启用DLSS 4后达到了238帧每秒,而在RTX 4090上启用DLSS 3.5时,只有106帧每秒。
RTX 5080比RTX 4080快一倍,配备16GB的GDDR7显存,内存带宽为960GB/秒,CUDA核心数量为10752个。
RTX 5070 Ti配备16GB的GDDR7显存,内存带宽为896GB/秒,CUDA核心数量为8960个。
RTX 5070则配备12GB的GDDR7显存,内存带宽为672GB/秒,CUDA核心数量为6144个。
老黄甚至宣称,RTX 5070将以549美元的价格,提供RTX 4090级别的性能,这无疑是由于DLSS 4的提升。
另外,老黄还展示了RTX Blackwell GPU,并进行了一场实时渲染演示。
他表示,「新一代的DLSS不仅仅是生成帧,它还能预测未来。我们用GeForce推动了AI,而现在AI正在革新GeForce。」
Nvidia全新的RTX神经着色器可用于压缩游戏中的纹理,而RTX神经面孔则利用生成式AI来提高面部质量。
下一代DLSS包含了多帧生成技术,可以在每个传统帧的基础上生成最多三个额外的帧,使帧率比传统渲染提高了多至8倍。
并且,DLSS 4还包括了Transformer在实时应用中的使用,能够提升图像质量、减少鬼影效果,并在动态画面中增加更高的细节。
值得一提的是,英伟达在RTX 50系列的Founders Edition上采用了全新设计。
配备了两个双流量风扇、3D均热板和GDDR7显存。RTX 50系列所有显卡均支持PCIe Gen 5,并配有DisplayPort 2.1b接口,能够驱动最高8K分辨率和165Hz的显示器。
令人惊讶的是,RTX 5090 Founders Edition是一款双插槽显卡,能够适配小型机箱,跟RTX 4090的尺寸相比,这是一个巨大的变化。
英伟达高级科学家Jim Fan,发现了老黄演讲中关于图形技术的「华点」。
你们都在期待RTX 5090的发布,关注它的规格参数,但你们是否真正理解黄仁勋关于图形技术的说法?
传统的光线追踪算法只渲染约10%的内容,相当于一个「粗略的草图」,然后由生成式模型实时地在一次前向传递中填充其余的细节。
50系显卡首秀之后,老黄提到「Scaling law仍在继续」:
scaling law不断演进,推动着AI对计算的巨大需求。
令人惊叹的是,包括微软、Meta、xAI约15个超算中心,都已经装上了Blackwell GPU。
接下来,他又提到了智能体AI,是测试时scaling完美的应用示例。
同时,他还宣布推出了一系列开放许可的基础模型—— Llama Nemotron,能够在各类智能体任务中提供极高的精度。
老黄称,「AI智能体可能是下一个机器人产业,可能是价值数万亿美元机会」。
此外,英伟达NIM Blueprint即将在PC上线,借助这些蓝图,开发者能够基于 PDF 文档创建播客、生成由 3D 场景引导的令人惊艳的图像等。
CES大会收尾前,老黄还揭开了一款革命性的压轴产品——Project Digits,一台真正意义上「桌面超级计算机」!
它专为AI开发者、数据科学家、学生等,那些从事AI工作的专业人士而设计。
这款小型计算机是「全球最小」可运行200B参数模型的AI超级计算机,售价3000美金(约21986元)。
正如老黄所展示的那样,这款紧凑型台式系统提供强大算力的同时,仅占用了极小的桌面空间——
宽度大约相当于一个普通咖啡杯的长度,高度也仅有其一半左右。
想象一下,你的办公桌上放置一个微型设备,却能提供堪比数据中心级算力。
这就是Project Digits带来的革命性突破!
Project Digits搭载了全新的GB10 Grace Blackwell超级芯片,能在FP4计算精度下,提供高达1 PFLOPS(千万亿次浮点运算/秒)的AI性能。
这颗强大的芯片,还搭载了20个ARM核心的Grace CPU。CPU和GPU通过NVIDIA NVLink C2C技术实现高速互联。
每个Project Digits都配有128GB低功耗统一的高一致性内存,以及最高4TB的NVME存储。
有了它,开发者可以直接在桌面上,运行高达2000亿的大模型。
令人惊喜的是,通过ConnectX网络芯片,可以将2台Project Digits超级计算机互联,能够运行高达4050亿参数的模型。
此外,Project Digits预装了NVIDIA DGX基础操作系统(基于Ubuntu Linux)和NVIDIA AI软件栈,为开发者提供了一个开箱即用的AI开发环境。
对于数百万开发者来说,它将成为一款改变游戏规则的创新产品。
尤其是,Project Digits特别适合处理,需要依赖云计算/数据中心资源才能运行的AI大模型。
这款桌面AI超算应用场景非常广泛,AI模型实验和原型开发、AI模型微调和推理(用于模型测试或评估),以及本地AI推理服务(如聊天机器人或代码智能助手)。
此外,数据科学家还以利用系统运行NVIDIA RAPIDS,直接在桌面就能高效处理大规模数据科学工作流。
有了英伟达AI完整技术栈的加持(框架、工具、API),Project Digits成为了边缘计算应用的理想开发平台,特别适用于机器人技术、VLM等领域。
Project Digits的出世,标志着个人AI计算进入了一个全新的时代。
它能让全世界开发者能够在自己的办公桌上,运行超大规模的AI模型,补充了现有的云计算资源,极大地提升了AI开发效率。
智能体AI之后,老黄又将话题引到了「物理AI」。在他看来,「AI的下一个前沿就是物理AI」。
大模型的工作原理是,根据提示一次生成一个token产生输出。
如果这个上下文变成了现实周围环境,如果提示问题变成了请求,大模型需要从生成「内容token」转变为生成「动作token」。
而现在,我们需要做的是创建有效的「世界模型」,而不再是GPT系语言模型。
这个「世界模型」必须理解世界的语言,必须理解物理动力学,比如重力、摩擦,必须理解几何和空间关系,理解因果关系,理解物理永恒性......