专栏名称: 大数据文摘
普及数据思维,传播数据文化
目录
相关文章推荐
软件定义世界(SDX)  ·  中信建投:DeepSeek如何加速金融业数字 ... ·  2 天前  
大数据分析和人工智能  ·  太强!62节视频带你用DeepSeek效率翻倍 ·  3 天前  
天池大数据科研平台  ·  Gemini大升级!谷歌引爆程序员革命:编程 ... ·  昨天  
CDA数据分析师  ·  【干货】7天入门SQL?不用?一天就够,真不难! ·  3 天前  
CDA数据分析师  ·  《CDA一级教材》电子版上线CDA网校,助你 ... ·  3 天前  
51好读  ›  专栏  ›  大数据文摘

AI超级碗!英伟达GTC大会宣布Blackwell升级架构及下三代GPU,黄仁勋展现AI大布局!

大数据文摘  · 公众号  · 大数据  · 2025-03-20 12:00

正文

大数据文摘受权转载自头部科技
文丨丁灵波


北京时间3月19日凌晨,英伟达年度GTC大会在美国圣何塞揭幕,CEO黄仁勋身穿标志性黑色皮衣再次登台,进行了两个多小时激情解说。
从全新旗舰芯片架构、数据中心超算到AI智能体软件、物理AI、机器人、自动驾驶等,再次描绘和展望了英伟达的超级AI版图。
老黄表示,今年GTC大会就如同“AI界的超级碗”,每个人都是胜利者,因为在英伟达的算力和开发工具加持下,AI能为更多行业和公司解决问题。
大家最关心的GPU产品,黄仁勋表示升级版的Blackwell Ultra在2025 年下半年就能上市。
而且英伟达未来三代全新GPU架构都在开发中,命名为Rubin、Rubin Ultra、Feynman,Rubin架构性能可达到Hopper的900倍以上,关键性能比最新发布的Blackwell Ultra还要再翻两倍以上,继续独霸全球顶尖AI算力市场。
老黄的AI观

老黄开场再次展示了自己对AI技术发展趋势的预判,技术将经历感知AI-生成式AI-AI代理-物理人工智能,因此超强的AI算力那是少不了的。
尽管今年DeepSeek模型展现出对算力的需求没那么顶尖也可以,但广泛应用后却激发了AI推理需求,同时业内头部AI公司也在追求更大规模的模型训练,Scaling Law并未失效,无论怎么看对算力的需求都是越来越高、越来越强。
老黄透露,全球前四大云服务商去年采购了超130万片Hopper架构GPU,今年或将增至360万片Blackwell架构GPU,数据中心投资将上万亿美元规模。
升级版Blackwell Ultra GPU架构更擅长满足AI推理需求。
该架构增强了训练和测试时间扩展推理(在推理过程中应用更多计算以提高准确性的艺术),使开发者能够加速AI推理、代理AI和物理AI等应用。
Blackwell Ultra以一年前推出的Blackwell架构为基础,包括NVIDIA GB300 NVL72机架级解决方案和NVIDIA HGX B300 NVL16系统。GB300 NVL72的AI性能比NVIDIA GB200 NVL72高出1.5倍,与使用NVIDIA Hopper构建的相比,Blackwell性能增加了50倍。
与Hopper一代相比,NVIDIA HGX B300 NVL16在大型语言模型上的推理速度提高了11倍,计算能力提高了7倍,内存增加了4倍。
基于Blackwell Ultra的产品将从2025年下半年开始提供。预计思科、戴尔科技、惠普、联想和超微等将提供基于Blackwell Ultra产品的各种服务器。
NVIDIA Dynamo开源推理框架今天也宣布扩展了推理AI服务,通过提供最有效的测试时间计算扩展解决方案,实现了吞吐量的飞跃,同时缩短响应时间和模型服务成本。
英伟达预计将于2026年下半年开始发售其下一代GPU产品,以天文学家Vera Rubin的名字命名,将比去年的Grace Blackwell芯片中使用的CPU快两倍。
Rubin可以在进行推理时实现每秒50千万亿次浮点运算,比该公司目前的Blackwell芯片每秒20千万亿次浮点运算的速度高出一倍多,Rubin还可以支持高达288 GB的快速内存,这是AI开发人员关注的核心规格之一。
以物理学家理查德·费曼命名的Feynman架构,预计会在2028年问世,目前并未有太多细节。
全面渗透的“算力生意”

除了GPU架构展望,今年GTC推出的核心组件产品瞄准了数据中心AI超算和个人AI超算,以及基于英伟达硬件的一系列AI推理、AI智能体软件支撑。
黄仁勋介绍了目前全球最先进的企业级AI基础设施—搭载NVIDIA Blackwell Ultra GPU的NVIDIA DGX SuperPOD™,旨在为各行各业的企业提供AI超级计算,实现最先进的代理AI推理,该超级计算机可提供FP4精度和更快的AI推理能力,从而为AI应用程序增强令牌生成能力。
其中的DGX GB300系统可提供比使用NVIDIA Hopper™系统和38TB快速内存构建的AI工厂高达70倍的AI性能,为代理AI和推理应用程序上的多步推理提供无与伦比的大规模性能。
每个DGX GB300系统中的72个Grace Blackwell Ultra GPU通过第五代NVLink技术连接,可提供高达800Gb/s的加速网络速度,与Hopper一代相比,DGX B300系统可提供11倍的AI推理性能和4倍的训练速度。
英伟达也展示了把AI部署到每个开发者身边的野心,实现算力从数据中心到桌面端的延伸,推出AI超级算力台式机:DGX Spark和DGX Station。
这是搭载NVIDIA Grace Blackwell平台的桌面超级计算机,也号称是世界上最小的AI超级计算机,可以让AI开发人员、研究人员、数据科学家和学生能够在桌面上对大型模型进行原型设计、微调和推理,用户可以在本地运行这些模型,也可以将其部署在NVIDIA DGX Cloud或任何其他加速云或数据中心基础设施上。
DGX Spark的核心是NVIDIA GB10 Grace Blackwell芯片,配备第五代 Tensor Core和FP4支持,每秒可进行高达1000万亿次AI计算。
DGX Station则为桌面带来接近数据中心级性能,核心使用了NVIDIA GB300 Grace Blackwell Ultra最新芯片,具有784GB连贯内存空间,支持高达800Gb/s网络传输,以处理比DGX Spark更大的工作负载。
硬件之外,值得关注的是,英伟达今天还推出了NVIDIA Dynamo,这是一款开源推理软件,用于以最低的成本和最高的效率加速和扩展AI推理模型。
NVIDIA Dynamo是NVIDIA Triton Inference Server™的后继产品,它能协调和加速数千个GPU之间的推理通信,并使用分解服务将大型语言模型 (LLM) 的处理和生成阶段分离在不同GPU上,确保最大程度地利用GPU资源。






请到「今天看啥」查看全文