2月25日,中信建投证券研究所所长、TMT行业首席分析师武超则在
中信建投证券2025年度“
人工智能+
”
投资策略会上分享了对人工智能的看法。
投资作业本课代表整理了要点如下:
1、2025年
依
然明确看好两个方向,
国产算力“水到渠成”,AI应用
“
落地生根”。
国产算力是我们认为今年最
确定的投资方向。
2
、算力的贝塔依然存在,即算力需求并未结束,距离泡沫化还有距离。
但从结构上看,推理需求的比例会更大。
3、
今年其实更像真正意义上的2013年
,硬件已经铺垫很久,渗透率开始提升,有了靠谱的操作系统,今天的大模型出现。
但对于应用的探索,未来才是整个产业的大头。
就是整个行业最终能称之为主流产业,真正落地成为生产力,应用的价值一定远大于基础设施投资。
4、
智能体(Agent)是我们今年在应用端最看好的方向
,第二个我们看好的方向是端侧AI,第三个是最近比较热门的机器人,或称聚生智
能,但进展
可能没有前面两个方向那么快,不过空间较大。
5、
智能本身就是一种应用。
智能需要一个载体,而终端和硬件载体目前是绕不开的。
终端是否会因智能能力的平权而带来新的创新周期,这是非常值得期待的。
6、
未来,每个人都会有一个与自身能力和领域相匹配的强大个人智能体,作为日常工作和生活的私人助理,这将是一种可见的模式。
建议金融等行业,当下不是考虑如何开发自己的模型,而是如何搭建自己的智能体。
7、
AI第一波能赚钱的场景可能在哪些方向?
我们简单梳理了前20的应用......
但从活跃度和访问量来看,主要集中在以下几个方向:
AI助手、AI搜索和AI视频。
8、
回到模型本身,未来,开源与闭源一定会并存。
9、
大厂要回到基本逻辑:更大的算力和更多的优质数据
。
10、
中国的运营商资本开支是否会因AI的变化而提前结束下行周期
,这是接下来两个月需要重点观察的。
11、
中国互联网厂商的资本开支
虽然比过去增长了近一倍,但与北美相比,仍差一个汇率。
从长期来看,
中国云厂商的资本开支仍有很大的增长空间。
以下是投资作业本课代表(微信ID:touzizuoyeben)整理的精华内容,分享给大家:
人工智能与医疗行业、商贸零售行业,以及各个传统制造业的深度结合正在显现。今天,我们聚焦于2024年年底发布的针对2025年全年的TMT行业策略报告主题。
报告分为两部分:一是“国产算力水到渠成”,二是“AI应用落地生根”。
尽管春节期间发生了许多新的变化,
但我们对2025年的前瞻观点并未改变
,
依
然明确看好两个方向。
其一,
国产算力是2025年我们最看好的方向之一
。大模型的平权化以及模型的本地化部署,使得算力板块,尤其是国产算力,成为上游投资最为确定的方向,我们稍后会展开讨论。
另一部分是“AI应用落地生根”
。回顾2023年针对2024年的策略展望,我们曾用“AI应用百花齐放”来形容当时的应用趋势,这更多是主题性或情绪性的投资。而今年,我们用“落地生根”来表达应用逐步走向实质性落地的观点。
虽然收入和利润的体现可能尚需时日,但在下载量、用户日活月活以及真实使用场景中,我们已经开始看到真实的变化,并且有更多行业基本面数据可供跟踪。
接下来,我想用大约半小时的时间,
从大模型或人工智能行业发展的三个基本要素——算法、算力和应用——来分享我们的最新看法。
首先回到模型本身。无论是2022年年底ChatGPT的出圈,还是今年春节期间DeepSeek的出圈,我们看到模型在过去两年一直处于快速迭代过程中。
第一阶段,我们称之为语言模型,或自然语言大模型(LLM)。以ChatGPT为代表的这一代模型,能够让人工智能像人一样“能听、能懂”,同时在文本生成上有出色表现。对应的应用场景主要包括客服和文本生成等。
第二阶段以GPT-4(2023年上半年)和LLama2(2023年7月)为代表。这一阶段的模型让机器能够像人一样学会使用工具,例如智能体(Agent)。这一阶段是2023年大模型的核心变革期,应用场景包括编程和AI终端等。
第三阶段是所谓的“慢思考”或推理模型。经过前两阶段的预训练,模型通过超大算力和超大数据训练,使机器具备语言和工具使用能力。
而在第三阶段,以OpenAI的o1模型和今年的DeepSeek模型为例,训练重点从训练侧转向推理侧。这不仅大幅降低了训练成本,还显著提升了模型的逻辑和推理能力。
如果大家最近使用了DeepSeek模型,会明显感受到,与前两代模型相比,它更像是个人助理,提供逻辑性和深度思考能力。
到了第三代模型,其应用场景不再局限于客服和助理Agent等,而是向更严肃的场景延伸,如人形机器人、无人驾驶以及更多B端生产场景。
然而,尽管OpenAI的o1模型早在2024年就已出现,为何DeepSeek的出现仍引起行业高度关注?
本质区别在于开源与闭源。DeepSeek R1模型开源后,其能力增益可被复现,例如通过强化学习等方式。开源不仅降低了成本,更重要的是增强了可解释性和可追溯性,使得更多严肃场景的应用成为可能。
春节后,腾讯、阿里等大厂迅速吸收并对齐DeepSeek的能力,这正是产业正在发生的变化。开源除了免费和低成本外,还推动了本地化部署。
未来,模型的创新不会止步,可能还会在预测能力、情感能力等方面超越人类平均水平。
到那时,
AI在科研创新、医疗创新以及工业制造等严肃场景中的应用将更加广泛,这一天可能比我们想象中来得更快。
由此可见,
模型在过去两年的迭代只是一个开始。未来十年甚至二十年,模型可能会经历更多版本更新,其能力提升和对应用场景的影响需要我们动态看待
。
以大模型比作移动互联网时代的操作系统为例,安卓和iOS在过去20年中经历了近20代的迭代。同样,大模型也将不断进化。DeepSeek的出现对大模型厂商而言,一方面降低了中小企业进行垂类模型训练的成本,另一方面则加剧了大厂在基础模型预训练上的竞争。
大厂需要更大的模型规模和数据量来提升模型效果,这种竞争将更加激烈。因此,模型平权与巨头竞争并存,这是当前产业的有趣现象。
关于DeepSeek的能力来源,其2024年12月推出的V3版本在工程创新上实现了低成本训练,例如采用稀疏MoE(专家模型架构)、8位浮点数精度以及多token预测等技术,对标GPT-o1模型的能力。
而R1模型则在此基础上进一步强化学习,优化了逻辑性和语言混合问题,使其更接近人类的说话逻辑和分析框架。这体现了基础预训练与工程创新的结合,如同练内功与练技法的相互促进。
其实前面我们谈到过,基础预训练就像练内功,工程创新则像练技法。两者往往是交叉进行的。内功练成了,还需要练技法,而技法的能力增益一旦被广泛掌握,又需要回归内功的修炼。基础预训练的重要性始终存在。
DeepSeek不会引发算力需求减少
Scaling Law依然有效
DeepSeek出现后,曾引发对算力需求的担忧,担心模型训练成本的迅速下降会导致算力需求减少。但我们当时的
判断是Scaling Law(规模化法则)依然有效
,算力需求依然会回归到基础预训练。
无论是用于训练还是推理,算力的确定性依然很高。只是今年算力需求的结构从去年以训练为主,逐步向推理需求增加转变。但算力的整体确定性并未下降,这是我们关注的基本框架。
我们稍微展开一下为什么Scaling Law依然有效。目前的训练基本分为三部分:预训练(pre-training)、后训练(post-training)以及推理阶段(test time)的算力重新投入。
这三部分分别解决内功、技法和融合的问题,形成螺旋式的需求迭代,这也是Scaling Law依然有效的原因。更强大的基础模型对推理模式的创新至关重要,这是我们对算力的基本判断。
第二个问题,R1模型出现后,“AI平权”成为大家讨论的热点。什么是平权?就是人人都能用上不错的模型。
过去,海外领先的模型我们用不上,国内模型也存在成本高、幻觉等问题。而今年,大家可以用到的基础模型能力至少从R1这一代开始,已经达到了一个基准。例如腾讯的元宝、千问等产品,基本可以实现类似的效果。
我们对大模型的看法可以分为两方面
。
一方面,
全球大厂会快速接入类似阿里云的服务。对OpenAI本身的战略也会产生影响。例如春节期间OpenAI推出的o3-mini,虽然比DeepSeek稍贵,但已大幅降低成本。
未来,类似的模型产品会不断涌现
。另一方面,
开源与闭源的讨论也会持续。移动互联网时代,苹果的iOS是闭源的成功案例,
而谷歌的安卓则是开源的成功代表。今天回到模型本身,未来,开源与闭源一定会并存。
当然,能力创新的源泉和迭代才是核心。全球大厂会更大力度增加资本开支,以求在基础模型或预训练上实现更强大的能力迭代。
但预训练最大的问题是什么?基础模型固然重要,但如何拉开差距?主要有以下几个因素:一是更大参数规模的模型训练,其算法会更加复杂;二是算力规模,例如英伟达的十万卡集群,最新甚至达到20万卡集群。集群规模越大,越能支持更大参数的模型,这又回到单卡能力的问题。
目前国产卡与英伟达的单卡能力差距并不大,但如果要解决10万卡甚至20万卡的集群问题,GPU本身依然是一个重要制约。
此外,高质量的数据也是关键。有说法称到2026年,人类历史上所有互联网数据都会被AI学习完毕。至少DeepSeek进行了所谓的“蒸馏”,对自身数据进行了对齐。
那么,下一步能力增益从哪里来?数据,尤其是高质量的数据,依然是大厂竞争的关键。再延伸一下,高质量数据从哪里来?是否需要更多的用户、更好的场景以及应用入口?
这也是为什么最近做模型的人开始更多地思考应用问题。源源不断的用户和应用场景带来的高质量新增数据,是下一代模型增益来源的根本。从这个角度看,
大厂要回到基本逻辑:更大的算力和更多的优质数据
。在下一代模型上,如果有没有人能超越DeepSeek,可能需要从这个框架下进行分析。
DeepSeek“激活”了AI产业链
一些垂直类应用有望脱颖而出
另一方面,开源模型引发了全球复现热潮。各种垂类模型或小模型结合强化学习,也能实现不错的效果。对中小企业、金融机构以及央国企等来说,如果在垂类场景上有绝对的数据或用户优势,
结合开源模型进行本地化部署,迅速结合自身数据进行应用场景测试或训练,将成为一种趋势。
在这种环境下,
一些垂类应用有望脱颖而出,只是需要一些时间
。
DeepSeek的出现以及低成本、高性能的趋势,对整个AI产业链来说,用“激活”来
形容最为恰当。它加速了产业循环、创新迭代以及应用进展的速度。
所以,用“激活”来形容DeepSeek对产业的影响是比较恰当的。它一定会让整个产业运转得更快。
接下来我们稍微展开一下,投资方面大致可以分为四部分:一是对算力本身的影响,二是对应用的影响,三是对端侧的影响,四是对数据的影响。基本框架可以分为这四块来看。
先说算力
。我们会发现,大家实实在在地开始增加资本开支,体现在基本面上,主要还是在算力板块。当然,算力不仅仅是GPU,还包括整个产业链,比如最近关注度较高的服务器、数据中心以及数据中心内的相关配套等。
第二大块是应用
。应用方面,北美和中国略有不同,后面我们会稍微展开。
第三块是端侧。
硬件的确定性一方面在上游,即服务器端的算力是战略基础设施。另一方面,在应用侧,虽然很多软件层面的东西现在还难以把握,比如广告、视频等领域,但终端硬件,如手机、汽车、智能家居等,依然是难以绕开的数据入口。它不一定有最先进的模型,但一定有最新鲜的数据和最及时的应用场景。因此,
端侧仍然是今年确定性较高的方向
。
还有一个容易被忽略的是数据。
我们前面提到,
未来基础模型的创新能力增益主要来自数据本身
,尤其是B端数据,具有专有性和独特性。这也是一个重要的投资方向。
这只是中间状态,
未来海外下一代模型能力一定会有增益
再看海外的o3 模型,从o1模型开始,其发展路径与DeepSeek颇为相似,都是在推理侧或逻辑层有了更好的表现
。但整体来看,这只是一个中间状态,未来海外下一代模型在能力上一定会有增益。
需要讨论的是,它们是否会走上开源或闭源的道路,这可能是比较重要的影响因素。显然,目前还不是终局。
另外,
智能体(Agent)也是我们去年提到较多的概念,2025年我们依然看好这个方向。
智能体与单一强大模型的核心区别是什么?如果把通用人工智能或强大基础模型比作一个人,那么智能体就是一个组织,比如一个单位、小组或团队。
我们看到最近在很多企业的本地化部署里面,它不是只选择一个模型,我可以选择五个模型,哪个模型好我就要哪个,除了不同模型之外,更重要的是数据,包括结构化数据、非结构化数据以及企业内部的业务流程。这两者结合起来,才能更好地解决业务需求。
我们建议金融等行业,当下不是考虑如何开发自己的模型,而
是如何搭建自己的智能体
。
在这个过程中,数据优势和应用闭环的效果会更好。最近我们也看到一些第三方软件,每个人都可以基于个人知识库或数据库搭建自己的智能体,最终成为个人助理。
未来,每个人都会有一个与自身能力和领域相匹配的强大个人智能体,作为日常工作和生活的私人助理,这将是一种可见的模式。
港股科技股和外资对中国科技资产非常关注,原因在这里
这张表很重要,显示了全球大模型的访问量情况。
毫无疑问,GPT依然排在第一,DeepSeek已经进入前三。黄色部分是国产模型,整体来看中美各占一半。这也从侧面印证了为什么
港股科技股和外资对中国科技资产非常关注
。从结果上看,
我们与海外模型在访问量和能力效果上的差距正在缩小。
另一个值得关注的是模型价格下降带来的易用性大幅提升。模型平权或价格下降激活了整个产业的乘数效应,越来越多的人开始部署应用。
我常举一个例子,3G网络在2009年就已商用,但手机游戏作为移动互联网第一个赚钱的应用,直到2013年才出现,中间花了四五年时间。原因不是网络不行,也不是手机不行,而是流量太贵。那个时代不可能用昂贵的流量玩游戏或看视频。所以,
成本下降是应用能够起来的核心关键点,与模型自身能力同等重要。
简单总结下,
全球模型的变化主要体现在以下几个方面:
一是从2025年开始,真正从研发走向生产环境,即从研发环境走向生产环境。简单来说,每个人都能真正用上,工作场景也能接入,创新变得更加活跃。
二是大模型的技术路线和能力正在快速迭代,开源与闭源交叉领先。
三是国产模型的差距在缩小,易用性大幅提升,整个模型平权的趋势非常明显。
基于这些判断,我再分享一下我们在投资方面看好的一些具体方向。
其实也是一开始讲的题目,可以分为两部分:一是算力,二是应用。
整体来看,算力的贝塔依然存在,即算力需求并未结束,距离泡沫化还有距离。但从结构上看,推理需求的比例会更大。
前两年我们主要看到的是训练需求,现在整体趋势是从训练转向推理,推理开始成为重点。当然,大家也会关注训练与推理的本质区别,后面我会稍微展开讲一下。
首先回到算力的本质。算力到底是什么?打开机房,GPU无疑是整个行业的核心。我们需要把GPU做到服务器,现在本地化部署的成本已经大幅下降。
例如DeepSeek的70B模型,一台服务器就足够,成本在一二百万左右。而去年本地化部署的成本至少是千万量级,今年已经降至百万量级
,
这是一个质变的区别
。
很多人从“不可能部署”变成了“可能部署
”。但服务器还不够,还需要整个机房环境,包括铜连接、液冷、电源等,然后放入数据中心(IDC)。当然,机房内还需要光模块、PCB等配套设备,最终组成算力的基础环境。
所以,
除了GPU本身(最直接或最重要的环节),本地化部署和应用的兴起,后续对云计算的需求,对整个部署的需求,也会带动整个行业的发展,这是我们最近看到的趋势。
中国云厂商的资本开支还有很大空间,
距离北美差一个汇率
再看资本开支,这也是大家非常关注的。看下海外云厂商(CSP)的资本开支情况。可以发现2023年Q1是一个非常明确的拐点。
OpenAI在2022年年底推出ChatGPT后,从2023年开始,云厂商每季度的资本开支都在上升。预计2025年,北美云厂商的资本开支将在3000亿到4000亿美元左右。
再看国内,阿里的资本开支增长迅猛,无论是过去十年的总和还是每年的平均值,都至少翻了一倍。
更重要的是,除了阿里之外,腾讯、字节跳动、百度、美团等互联网厂商的资本开支也在增加。
从拐点来看,2023年Q1整体数据表明,
中
国互联网厂商的资本开支预计在3000亿到4000亿元人民币左右。虽然国内比过去增长了近一倍,但与北美相比,仍差一个汇率。
在移动互联网时代,我曾在2015年对云计算数据进行复盘。当时中国云厂商的资本开支约为北美的70%。而现在,
我们仅约为北美的七分之一
。
从长期来看,中国云厂商的资本开支仍有很大的增长空间。
接下来两个月关注,中国的运营商资本开支
是否会因AI的变化而提前结束下行周期
再看运营商,中国的运营商资本开支一直是大头。过去,三大运营商每年的资本开支约为4000亿元。但今年有一个非常有意思的现象:中国云厂商和运营商的资本开支可能会达到一个平衡,都在3000亿元左右。
美国在2018年就出现了这一现象,互联网公司的资本开支超过了传统运营商。之后,两者就形成了交叉。
中国的运营商资本开支是否会因AI的变化而提前结束下行周期
,这是接下来两个月需要重点观察的。
因为运营商资本开支本身处于下行周期,如果提前结束,那么云厂商和运营商的资本开支将成为算力上游资本开支的重要源泉。这也是后续投资机会确定性的来源。
回到国产算力,算力本身是一个贝塔,而国产算力则是阿尔法,即有边际增量。
我们团队曾做过一个表格,分析国产GPU的几个关键点:首先是出货量,即产能;其次是生态,类似于英伟达的CUDA或当年的X86,能否在生态中运转;最后是产品力。目前国产GPU的单卡能力对标英伟达产品并不逊色,但
接下来的关键难点在于流片(出货量)和生态建设。
这是大家在选择投资标的时需要重点关注的。
我们前面提到,随着训练需求逐步转向推理需求,推理卡对单卡计算能力的要求不再是唯一关键指标。存储能力、通信能力以及集群能力可能更为重要。
相比训练时代,推理时代对国产卡、创业公司以及专用推理卡厂商来说,可能会有更多机会,包括ASIC等
。
这是我们看到的,做训练跟推理本身的供给侧,是大家需要去关注的变化。
因此,国产卡在推理时代的友好度和适配效率可能会更高,这是我们的判断。
端侧算力非常重要
若将云侧比作大型超市,端侧是门口的小卖部
再看端侧。
如果把云侧或服务器侧比作大型超市,那么端侧就是门口的小卖部
。
端侧算力非常重要,
全球主流的PC厂商、手机厂商甚至机器人厂商都在迅速提升端侧算力。汽车也是如此。我们相信,
今年手机仍是一个值得看好的方向。
终端是否因智能能力的平权
而带来新的创新周期,值得期待
最近有很多讨论,是否很快会出现一个非常强大的AI应用,它会是一个什么样的APP或软件?
我们团队也讨论过,比较确定的是,
智能本身就是一种应用
,就像互联网刚兴起时,互联网本身就是一个应用。
智能需要一个载体,而终端和硬件载体目前是绕不开的
。例如苹果,虽然它没有开发强大的大模型,但可以选择与OpenAI合作(海外)或与阿里合作(国内)。终端是否会因智能能力的平权而带来新的创新周期,这是非常值得期待的,这是我们对端测的一个判断。