6月2日晚间,
英伟达
创始人宣布,英伟达Blackwell芯片现已开始投产,将在2025年推出Blackwell Ultra AI芯片,下一代AI平台名称为Rubin,目前还正在开发中,预计于2026年发布,该平台将采用HBM4记忆芯片。
受英伟达重磅消息的影响,6月3日A股开盘,存储器、光模块、GPU等AI算力概念持续活跃,备受投资者关注。其中,
铜缆高速连接方向领涨
。(
点此查看完整名单
)
值得一提的是,英伟达Blackwell芯片被市场称为“全球最强大的芯片”,芯片作为算力的核心,随着该芯片的投产,国产AI算力产业链业务也有望迎来增量。
算力是对信息数据进行处理输出目标结果的计算能力。随着社会数字化转型的持续深入,算力已成为支撑和推动数字经济发展的核心力量,并对推动科技进步等发挥着重要的作用。
AI算力指的是用于人工智能(AI)任务的计算能力。由于AI任务通常涉及复杂的数据处理、模型训练和推断等操作,需要大量的计算资源来实现。AI算力可以通过高性能计算设备,如图形处理单元(GPU)或特定的AI芯片提供。
今年以来,海外应用、算力和模型相互演进。2月以来,OpenAI发布了Sora,Anthropic发布了新一代AI大模型系列——Claude,马斯克开源大模型Grok-1正式对外开源开放,英伟达在GTC大会上推出新一代GPU GB200,全球AI产业发展速度逐步加快。
而国内模型、应用也不断突破,算力需求逐步放大。3月18日,Kimi上下文长度提升到200万字,访问量大幅提升,算力告急。3月23日,阶跃星辰发布了万亿参数大模型预览版,标志着国产AI大模型取得了巨大进步。国产AI大模型正在不断迭代,对算力的需求也在不断提升。
据IDC 报告,2023 年中国人工智能服务器市场规模将达 91 亿美元,同比增长82.5%,2027 年将达到 134 亿美元,2022-2027 年年复合增长率达 21.8%。
在今年英伟达GTC大会上,其称,如果要训练一个 1.8万亿参数量的 GPT 模型,需要 8000 张Hopper GPU,消耗 15 兆瓦的电力,连续跑上90天。如果中国有十家大模型公司,则需要8万张H100 GPU。
据此,东吴证券预计,
推理算力需求将是训练的数倍,高达几十万张
H100。随着模型继续迭代,算力需求只会越来越大
。
在算力自主可控领域,华为凭借其在国内AI芯片技术方面的显著优势,无疑成为了这一领域的领军者。
目前,虽然国产AI芯片在单卡性能、生态和集群效率上与海外产品仍有一定差距,
但改进速度较快,已经形成万卡集群
,并在科大讯飞、部分互联网大厂用于 AI 大模型训练。
2023年10月 24 日,科大讯飞携手华为,宣布首个支撑万亿参数大模型训练的万卡国产算力平台“飞星一号”正式启用。今年1月 30 日,讯飞星火步履不停,基于“飞星一号”,启动了对标 GPT4 的更大参数规模的大模型训练。
“飞星一号“是科大讯飞和华为联合发布基于昇腾生态的国内首个可以训练万亿浮点参数大模型的大规模算力平台,也是国内首个已经投产使用的全国产大模型训练集群,采用昇腾 AI 硬件训练服务器和大容量交换机构建参数面无损 ROCE 组网,配置高空间的全闪和混闪并行文件系统,可支撑万亿参数大模型高速训练。
华为算力包括昇腾和鲲鹏两大系列的芯片、服务器、软件和服务,覆盖了端、边、云的全场景应用
。其中,华为昇腾是国产AI芯片龙头,2022年
昇
腾占据国内智算中心约79%的市场份额。
华为主打 AI 芯片产品有 310和910B。310 偏推理,当前主打产品为 910B,拥有FP32 和 FP16 两种精度算力,可以满足大模型训练需求。910B 单卡和单台服务器性能对标A800/A100。
昇腾计算产业是基于昇腾 AI 芯片和基础软件构建的全栈 AI 计算基础设施、行业应用及服务,能为客户提供 AI全家桶服务。主要包括
昇
腾AI芯片、系列硬件、CANN、AI计算框架、应用使能、开发工具链、管理运维工具、行业应用及服务等全产业链。
从产业链来看,AI算力产业链
上游为算力基础硬件设施
,主要包括元器件、ICT基础设施、其他硬件设备等。
中游为算力网络与平台
,与上游硬件设备及基础设施共同组成数据中心、算力网络等,提供IDC服务、云计算服务,以及各类算力网络服务等。产业链
下游则为应用场景与用户
。
笔者根据Choice数据、上市公司资讯等信息,筛选出了
A股华为AI算力产业链公司
。其中,
讯飞星火与华为昇腾深度合作推出的自主可控的星火一体机,可以在大中型企业和行业客户的内部网络环境部署。
(
点此查看完整名单
)