2022年11月,OpenAI发布ChatGPT-3.5,通过大规模的神经网络模型,训练海量参数的数据集,获得出色的效果,用规模法则Scaling Law开启AI大模型时代。如今各大厂商投入数百亿美元训练AI大模型已两年,Scaling Law的边际效益显著递减,OpenAI也从ChatGPT-5转向ChatGPT-o1与o3的推理范式,通过增加推理深度,以获得更好的效果,AI由训练转入推理与应用落地的阶段。
2.1.1. AI监管有望放宽,助力政府效率提升
拜登重视AI安全,特朗普欲放宽监管。2023年10月,拜登政府依据1950年《国家防御法案》签署了“关于安全、可靠和可信赖的人工智能开发和使用的行政命令”,要求科技公司在开发大型AI模型时进行“红队测试”,并将结果上报联邦政府。此外,行政命令要求国家标准与技术研究所(NIST)提供指导,以确保AI模型不含种族或性别偏见。特朗普上台后则计划废除拜登政府对AI的行政命令,称其“阻碍创新”并“过于左翼”,并希望推动一个基于言论自由和人类繁荣的人工智能发展框架,放宽对AI的监管。不过马斯克一直是人工智能监管的倡导者,对‘超级智能’带来的潜在危害非常警惕。而副总统当选人詹姆斯·戴维·万斯(J.D.Vance)是开源AI倡导者,认为开源AI更有利于小企业与科技大公司的竞争。
联邦政府赤字高涨,马斯克领衔提质增效。美国联邦政府已连续22年出现财政赤字,上一次实现财政盈余还要追溯到2001年。2023财年,联邦政府总支出高达6.16万亿美元,而财政收入仅为4.47万亿美元,赤字问题日益严峻。早在第47届美国总统大选前,埃隆·马斯克就曾公开表示,如果特朗普赢得大选,他将协助联邦政府削减2万亿美元的政府成本,以改善长期的赤字问题。在特朗普胜选后,特朗普于美东时间11月12日宣布将新设立一个名为“政府效率部”(Department of Government Efficiency, DOGE)的机构,机缘巧合下与马斯克支持的狗狗币(Dogecoin)同名。未来该机构将由马斯克与印度裔美国企业家维韦克·拉马斯瓦米(Vivek Ramaswamy)共同领导, 政府效率部的主要任务是削减联邦政府开支和精简官僚体系。不过,特朗普为该机构设定了明确的期限,要求其在2026年7月4日之前完成任务。马斯克则曾在社交平台X上表示,这个部门的终极目标可能是完成使命后“删除自己”,以彻底践行精简政府的理念。
AI应用软件频获政府订单,开启DOGE变革。 2024年8月,美国国际开发署(USAID)成为OpenAI在美国联邦政府内的首位客户。USAID将使用ChatGPT企业版来减少行政负担。Palantir Technologies(PLTR.O)利用AI帮助组织机构有效地整合其数据、决策和运营,2024年已与美国官方机构签署上千份合同,其半数收入来自于政府部门,美国陆军、联邦调查局、联邦采购服务局、美国移民与海关执法局等均大量采购其软件服务。Salesforce(CRM.N)作为高效的客户资源管理CRM工具,利用AI帮助政府机构优化采购流程、提高合同执行效率,并减少不必要的开支。赛富时联合创始人贝尼奥夫提出,利用AI Agent来实现政府运营的自动化,包括报告、审计、案例管理和直接面向公民的服务,可以节省数十亿美元并消除延误。
C3.ai(AI.N)提供企业级AI解决方案,专注于大规模数据分析、机器学习及预测模型构建,助力企业实现智能化决策与运营优化。C3.ai获美国国防部人工智能建模和仿真软件订单,帮助军方加速在国防中使用人工智能,公司约三成订单来自美国州与地方政府。
2.1.2. AI走向终端推理,硬件智能化再升级
AI大模型赋能硬件升级,落地终端虽小但慧。云侧大模型近两年发展高歌猛进,终端侧应用时机成熟,待硬件载体落地。消费电子产业链庞大,现有硬件产品较为成熟,AI成为厂商端侧赋能的必然选择,并且相关落地硬件呈小型化趋势,先后发展出AI PC、AI手机、AI耳机、AI眼镜等一系列AI创新产品。
电子全产业链卷入AI浪潮,受益弹性各有差异。与传统电子产业链相比,AI终端因加入更多电子组件,上下游环节规模更大,参与厂商也更多,虽然是新兴事物但相关硬件和技术均已成熟完备。
1) 上游:主要包括光显、芯片、结构件、传感器、电池等硬件结构供应商;
AR光波导:水晶光电、舜宇光学科技、蓝特光电、苏大维格等;
芯片:高通(QCOM.O)、联发科(2454.TW)、瑞芯微、全志科技、恒玄科技、乐鑫科技、炬芯科技、中科蓝讯、兆易创新等;
传感器:索尼(SONY.N)、安森美半导体(ON.O)、意法半导体(STM.N)、TDK(6762.T)、韦尔股份、思特威、格科微、敏芯股份等;
电池:珠海冠宇、欣旺达、德赛电池、紫建电子等。
2) 中游:主要包括ODM/OEM厂、软件/系统及AI大模型厂商;
ODM/OEM厂:歌尔股份、瑞声科技、龙旗科技、亿道信息等。
3) 下游:主要包括品牌商、传统视光渠道商及消费电子渠道商。
品牌商:谷歌(GOOG.O)、脸书(META.O)、苹果(AAPL.O)、小米集团等。
2.1.3. 训练“大脑”是大模型的核心,感知、记忆与执行是AI终端核心
大模型“大脑”与终端躯体协同,分解任务响应环境。AI大模型的核心在于通过大规模数据的预训练和微调,使模型能够学习到丰富的特征和知识,从而具备强大的推理、分析和决策能力。通过深度学习技术从数据中提取模式和关系,并在训练阶段调整参数以最小化预测误差,从而提升模型的准确性和泛化能力。AI终端通常由感知、记忆和执行三个模块构成,接入云端大模型。感知模块负责从外部环境中获
2.1.4. 算力注重性价比,存算一体补短提效
自研ASIC性价比高,推理应用改善ROIC。ASIC(Application Specific Integrated Circuit)芯片由于其专用性,能够针对特定任务进行优化设计,单位算力成本低于通用GPU。同时由于高效率和低功耗的特点,在AI推理任务中展现出显著的性价比优势。在AI大模型发展2年多之际,部分企业针对各自大模型自研的ASIC芯片陆续发挥起重要作用,如谷歌的TPU v6和亚马逊的Trainium 2,对英伟达通用GPU形成部分取代,并带动ASIC产业链。
ASIC芯片设计、IP与代工、封测公司:Broadcom(AVGO.O)、Marvell Technology(MRVL.O)、世芯-KY(3661.TW)、创意电子(3443.TW)、Socionext(6526.T)、Credo Technology(CRDO.O)、Rambus(RMBS.O)、Cadence(CDNS.O)、MediaTek(2454.TW)、TSMC(2330.TW)芯原股份、灿芯股份、长电科技、甬矽电子、通富微电等。
AI训练规模化通用,终端推理形态多样。AI大模型训练需要大规模并行计算,需GPU规模化万卡互联集群,AI推理与终端种类形态多样,所需芯片差异化大,也更注重性价比。国内多家SoC芯片企业针对不同应用领域开发的各类芯片,芯片接口与性能规格多样,每款芯片可类比一颗ASIC芯片,满足推理、具身智能、AI眼镜、AI玩具等各类AI终端推理需求。
SoC芯片设计:海思、寒武纪、海光信息、瑞芯微、全志科技、晶晨股份、恒玄科技、乐鑫科技、炬芯科技等。
“存算墙”导致延迟与功耗双增加。大模型训练需要大规模并行计算,往往存在“冯·诺依曼”架构常有的“存算墙”问题,及时使用HBM(High Bandwidth Memory)打破存算墙,数据在存储和计算单元之间的移动依然消耗大量能量,预估占到总能量的70%以上,尤其是在大规模并行计算和深度学习任务中。数据传输不仅增加了能耗,还导致了显著的延迟。
存算一体与AI匹配度高。存算一体的核心思想是直接在存储单元中完成数据处理,从而减少数据传输延迟和能耗,提高计算效率。存算一体技术可以从存储单元到计算单元的集成程度不同,分为多种类型,包括近存计算(Processing Near Memory, PNM)、存内处理(Processing In Memory, PIM)和存内计算(Computing In Memory, CIM)。存算一体在需要高算力的AI大模型训练,以及需要低功耗的AI终端推理上,优化效果显著。
2.1.5. 电力供需突紧俏,发电用电两头抓
AI算力激增,电网压力堪忧。美国电力需求在经历近半个世纪的停滞后,随着AI技术的发展,预计未来十年内,电力需求可能增加15%至20%。国际能源署(IEA)统计,2022年美国约2700个数据中心消耗全国总电力的约4%;ARM公司CEO预计,到2030年AI将占美国总电力消耗的20-25%。当前,高耗能的数据中心已对电网带来了压力,产生电网稳定性与电力质量问题(如谐波失真)。然而,美国在2021年4月曾提出“2035年零碳污染电力系统”的目标,为发电电力快速上产能带来严峻挑战。
核电重启,SMR最理想。科技巨头已开始寻找更多电力资源,以确保AI所需的电力供应。微软与Constellation Energy(CEG.O)签署为期20年的电力采购协议,计划重启位于宾夕法尼亚州的核电站。亚马逊购买苏斯奎哈纳核电站的电力,OpenAI的萨姆·奥尔特曼(Sam Altman)参与小型核电站Oklo(OKLO.N)公司的投资。但美国现存核电站数量有限,可再生能源项目面临选址、许可和输电线路障碍,且间歇性和不可预测性不符合AI数据中心需求。微软、亚马逊、谷歌和OpenAI等均正在探索使用小型模块化反应堆(SMR)来为数据中心提供电力,SMR因其建造速度快、部署灵活、安全性高而被视为一种理想的解决方案。SMR可以安装在数据中心内部或附近,从而减少电力传输过程中的损耗,并确保电力供应的稳定性。NuScale Power(SMR.N)通过开发创新型小型模块化反应堆重新定义核能,使得核电站安全和可靠,适合建造在数据中心附近,目前已启用第七个NuScale小堆模拟机,并计划2030年前在爱达荷国家实验室建造12座SMR。Centrus Energy(LEU.A)计划重启并扩大离心机制造,推进美国铀浓缩能力。
新型稳定清洁能源,探索尝试再突破。氢能、生物质能和核聚变等,也有望成为数据中心更可靠和可持续的能源解决方案。微软在都柏林的数据中心首次部署了氢燃料电池,与ESB合作使用绿色氢气作为清洁能源;eBay的数据中心自2013年起使用Bloom Energy(BE.N)的燃料电池作为主要供电设备;微软、FuelCell Energy和西门子合作利用生物气(由废水处理厂产生的副产品)为燃料电池供电;2024年11月,CFS(Commonwealth Fusion Systems)在核聚变发电项目方面取得进展,宣布将在弗吉尼亚州建造一个商业规模的核聚变发电厂ARC,并计划在2030年代初期实现商业化。
变电供能,保障稳定。AI芯片性能与数量大幅提升,数据中心单机柜功率陡增,电源数量与规格均提振。如普通服务器机柜功率20kW,英伟达DGX H100服务器需使用24个3kW电源,使用GB200芯片的NVL72服务器需36个5.5kW电源,总功率高达约130kW,还需50%冗余设计。未来单电源功率还将提升至8kW,目前仅台达电(2308.TW)、光宝科技(2301.TW)等少数企业有能力供应,国内麦格米特也进入供应商名册。同时,高功率电源为应对电网稳定性与电力质量问题,DrMOS、多项电源控制器、超级电容器、BBU(Battery Backup Unit电池备份单元)、UPS(Uninterruptible Power System不间断电源设备)和柴油发电机构成梯次,保障数据中心供电稳定。
OpenAI创始成员+胜选功臣,马斯克深入布局AI
2.2.1. 创建xAI——以理解宇宙本质为愿景
曾投资OpenAI,现专注自身愿景。2015年,马斯克加入OpenAI,身为创始成员之一,马斯克曾为其投入约1亿美元(或5,000万美元)。2018年,他因特斯拉的AI业务发展而离开,同时也因未能成为OpenAI领导者而与董事会产生分歧。自离开后,马斯克批评OpenAI由非营利转为“营利混合体”,并与微软建立深度合作,质疑其透明性与初衷。
马斯克创立xAI,创始团队实力强劲。xAI以“理解宇宙的真实本质”为核心使命,是马斯克在AI领域的新尝试。2023年3月,xAI在内华达州注册成立,并采购了约10000块H100 GPU以支持先进AI系统的研发。2023年7月12日,马斯克正式对外宣布xAI的成立。xAI初创团队汇聚了来自OpenAI、DeepMind、微软、特斯拉等顶尖科技公司的专家与学者。xAI核心成员包括曾担任DeepMind研究员的伊戈尔·巴布施金和非营利组织AI安全中心主任的丹·亨德里克斯(顾问)。xAI表示将与Twitter(现X)、特斯拉以及其他公司密切合作,共同推进其研究与发展目标。
高效组建超级集群Colossus。2024年10月,黄仁勋在与Tesla Owners Silicon Valley的互动中介绍了xAI的壮举。埃隆·马斯克和xAI团队在2024年6月仅用了19天就完成了10万块H100 GPU组成的超级计算集群部署,并完成了第一次训练,通常如此大规模的部署需要一年时间。xAI团队不仅完成了GPU集群的安装,还建设了一座巨大的“X工厂”以容纳这些设备,整个过程包括为工厂提供液冷系统和供电设施,确保所有GPU能够顺利运行。根据成本估算,每块H100GPU的价格约为3万到4万美元,因此,马斯克的“超算工厂”总价值约为30亿至40亿美元(约合人民币218亿至290亿元)。从算力上来看,OpenAI的GPT-4的训练使用了25000块A100GPU,约为“超算工厂”的1/20。目前,Colossus的第一阶段建设已顺利完成,集群已完全上线并开始运行,不久后孟菲斯超级计算机将继续升级,新增50000个H100 GPU和50000个H200 GPU,GPU总量将达到20万块。
高度集成,高效运行。xAI的超级计算集群由Nvidia HGX H100服务器组成,每台服务器包含八块H100 GPU。这些服务器安装在Supermicro的4U液冷系统中,每个机架支持八台服务器,共计64个GPU。液冷系统通过1U集管为每个HGXH100提供冷却,机架底部配备冗余泵系统和监控系统。每八个机架组成一个阵列,合计512个GPU,每台服务器配有四个冗余电源。整个集群包含超过1500个GPU机架,约200个机架阵列。为满足AI超级计算集群对网络带宽的高需求,每个GPU配备400GbE的专用网络接口,整个集群使用以太网连接,而非传统的InfiniBand,并在单一RDMA(远程直接数据存取,Remote Direct Memory Access)结构上运行,减少了延迟并提高了数据传输效率。此外,为了应对电力需求波动,Tesla Megapack电池被用作能量缓冲区,帮助平衡电网和超级计算机之间的能源供应。
xAI估值已破500亿美元。2024年5月xAI启动新一轮融资,目标筹集60亿美元,且融资得到了Andreessen Horowitz、Lightspeed Venture Partners、红杉资本和Tribe Capital等多家知名风险投资公司的青睐,对xAI的估值则达到 240 亿美元。2024年11月,马斯克在最新一轮融资中筹得50亿美元,该笔资金可能将用于购买10万块英伟达芯片以服务于xAI位于孟菲斯的Colossus超级集群,而对xAI估值则达到了500亿美元,该估值较此前已实现翻倍。2024年10月,OpenAI最新估值达到了1570亿美元(约合人民币11167亿元),是xAI的近三倍。
加价购卡,全力参与AI竞赛。目前xAI已通过在10.8亿美元的订单上加价,该笔交易是在马斯克直接联系Nvidia CEO黄仁勋后达成的,确保了360枚Nvidia GB200 Blackwell AI超级芯片在2025年1月前的优先交付,芯片则由Nvidia的主要制造合作伙伴富士康生产。在X中,马斯克透露下一步是明年夏天之前购买价值 300,000 块Nvidia最新的Blackwell GB200芯片。
2.2.2. Grok-2初露锋芒
X平台的Grok-2在多个关键领域表现卓越。Grok-2目前在LmsysChatbotArena中排名第六,仅次于OpenAI和Google的最新模型系列。在编码、复杂问题处理以及数学推理方面,Grok-2相较前一版本Grok-1.5取得了显著进步,尤其是在视觉数学推理(MathVista)和基于文档的问答(DocVQA)任务中表现突出,展现了其技术竞争力。这些能力使Grok-2在全球人工智能领域占有一席之地。2024年12月7日,X平台有限制地向普通用户开放了Grok-2的使用权限。在此之前,只有订阅Premium(每月9.6英镑,约12.5美元)或Premium+(每月19.2英镑,约24.9美元)服务的用户可以访问这一功能。相比之下,OpenAI的个人套餐订阅价格为20美元/月。此外,xAI计划于12月推出Grok-3版本,马斯克表示Grok-3将成为“全球各项指标最强的AI”。在技术资源方面,Grok-2的训练使用了20,000张英伟达H100加速卡,而马斯克透露,未来的版本迭代需要更多计算资源。例如,Grok-3的训练预计将使用多达100,000张H100加速卡。这一规模的计算能力为Grok系列的进一步突破奠定了坚实的基础。
科技巨头加大投入,中美领先全球大模型技术竞争,产业链日益完善。在市场参与者方面,国内外科技巨头如字节跳动、百度、阿里巴巴、腾讯、X、谷歌和OpenAI纷纷加大投入,推动大模型技术的研发与应用。中美在大模型领域处于全球领先地位,各自优势明显,形成激烈竞争。市场需求主要集中在自然语言处理、计算机视觉以及金融和医疗等行业,涉及自然语言理解、图像识别和医疗影像分析等多个应用场景。随着市场的快速发展,产业链也在不断完善,形成了技术支持、模型训练和市场推广等环节的紧密合作关系。
中国大模型企业梯队已逐步形成明确的分层结构。幻方量化的DeepSeek V3采用多项技术创新,提高计算效率和模型性能:采用多专家混合架构(MOE),引入多头潜在注意力机制(MLA),通过多令牌预测目标(MTP)。整体训练成本约557.6万美元,使用2048块H800训练2个月,是当前主流模型的1/10。智谱AI与月之暗面两家公司,估值均已达到30亿美元(约合200亿人民币),在新一轮融资中取得成功,进一步巩固了它们在国内大模型领域的领导地位。特别值得一提的是,从2023年年末至2024年年初,这一时期成为中国大模型力量逐步成熟的关键阶段,而月之暗面的快速崛起无疑是行业发展的一个重要里程碑。在完成第四轮融资后,月之暗面的估值升至25亿美元,与智谱AI、MiniMax和百川智能一同位列行业第一梯队。这些公司不仅在技术研发上处于领先地位,而且在市场拓展方面也走在行业前沿,成为中国大模型领域的核心力量。与此同时,估值在20亿美元以下的企业,如零一万物、面壁智能和深言科技,构成了行业的第二梯队。尽管这些公司的估值相对较低,但它们在技术创新和市场拓展方面展现出的潜力不容小觑。总体而言,随着融资规模的增加和资本的持续注入,中国大模型行业的竞争格局已经日益明朗。第一梯队的企业将继续在全球人工智能的竞争中扮演重要角色,而第二梯队的企业也将在技术进步和市场应用方面展现出更大的增长潜力。