更多一手调研纪要和研报数据,点击上面图片小程序
本次调研走访北美相关科技公司以及相关产业专家。聊了部分公司IR(英伟达/supermicro/intel/tesla/equninix),在技术端以及产品应用端,聊了相关技术与产品专家(openai/adobe/google/meta/微软/amazon/nVidia/anthropic)。
1、当
前大模型的能力是否依然在进步?模型的能力上限在哪里?
这个问题某种意义上决定整个AI产业的上限,模型能力的最终极限决定了算力的需求以及应用的想象空间。
从交流的专家来看,普遍对大模型的2-3年维度的持续迭代进步保持谨慎乐观的态度。但这种乐观某种意义上,与去年gpt3.5横空出世那种星辰大海不同,这个乐观更多是基于研发人员在模型端的具体进步而得出的结论,
- 比如说大语言模型在用户感知端的进步已经比较缓慢(也有专家表示这是为什么gpt5没有推出而是推出gpt4o的原因),进步更多的可能是用户感知不明显的数学能力等方面
- 通过相对较小的大模型的预研究仍然能够看到进步,也意味着更大规模的算力仍然能够带来模型的进步。
因此,从一年维度来看,模型进步对于算力需求的牵引应该是非常强的,一方面是基于本身研发端能够看到切实有价值的进步,同时这个调研可以非常明显感受到传统大厂在AI大模型落后之后的压力,比如google为此进行了比较多的组织架构调整,同时也是在薪资上给出了非常高的待遇(应届大牛工资+股票 100万刀,package唯一能匹配上openai的传统大厂)
对于大模型能否通向AGI,似乎并没有人主动提及。Google专家也表示,尽管大模型能够通过
图灵测试
(最公认的判定AGI的标准),其实现在大家似乎也很难认为当下的大模型就是AGI了,甚至某种意义上大模型现在是一种统计结果。或许,大模型再次出现类似于gpt3.5的能力跃升,更多的机会在于多模态(google专家演示了一个手机端gemini实时交互的视频),或者是当传统大模型的transformer架构有非常大的突破。
2、scal
ing law是否持续有效,能保证大厂高强度的capex得以持续
- 模型架构:目前来看transformer架构是公认主流,短期很难看到被颠覆的可能。
- 数据质量(数据的多样性,质量,数量):训练数据的枯竭是被多次提到的问题。
从以上三个环节来看,数据的枯竭可能是限制scaling law的一个比较重要的问题,这个问题在大语言模型的训练中尤其明显。数据的scaling law可能依然有效,但是数据的规模可能不能支撑无限制扩张下去。相比之下,多模态的训练数据还没有遇到这个问题。
算力的堆叠目前来看是分歧最小的方向,一方面大模型仍在进步,另一方面硅谷巨头仍然处在格局未定的战备阶段。当前算力在美国的制约是电力,为了应对电力短缺,谷歌已经开始尝试多数据中心协同计算。
目前来看,openai、google、meta是综合来看比较领先的,anthropic作为amazon和google共同投资的独角兽也是有背书的。马斯克的Xai在起步阶段,但是专家表示马斯克在高端人才的号召力很大,xai也有非常强的人才储备。
北美几个龙头与openai的差距某种意义上应该是在缩小的,一方面是传统巨头在人才储备上是完全够用的,尤其是google,在硅谷的技术人才储备上是公认的最领先的。其次,硅谷之间的技术交流相对便利,并且没有禁业协议。Meta专家表示除非openai在架构上再次出现跃升,否则即使他没有开源,对于业内专家而言他的技术实现也不是秘密,很快能追上。对于openai如何维持这个领先,openai的专家表示更多还是依靠本身的人才密度(现在的招聘门槛很高),以及
chatgpt
积累的数据资源。
国内模型研发的差距,从最前沿的科学角度差的依然比较大,硅谷的环境非常与世隔绝,科技大厂对于研发的投入更纯粹(meta,amazon的专家表示公司烧百亿美金,也并没有要求一定药做出啥产品来),因此在前沿架构的探索上,和硅谷差距非常大。但是考虑到当前硅谷整体模型的迭代也出现一定程度放缓,国内模型应该能够保持不被拉开。
以微软和adobe为例,两个公司是产品广度和深度最强的,并且过去一年在应用端的产品发布也比较频繁,但是从最终用户付费订阅的比例来看,这个结果是低于预期的。以微软为例,他的M365 copilot热门应用主要集中在企业搜索,m365chat,summarization,reference(emails)等环节,而最好的产品teams ai的日活大概在几百万左右。对于去年PR视频中给予厚望的PPT和EXCEL而言,专家坦诚是不够好的,主要问题是,
1) PPT与EXCEL的产品是一个从0-1创作的过程,但是对当前大模型的能力而言,从0-1这个生成过程是非常难匹配用户预期的。
2) 这类产品需要用户从零开始去构建promt(提示词),对于用户的使用门槛也非常高。
3) PPT的创作是个长流程的过程,类似于化工,每一步的生成误差,积累到最后也是非常大的,会带来整个产品的偏差比较大
而回到大模型能力的制约上,比较认同meta技术专家的一个观点,就是大模型本身现在展现出来的功能,很多时候对用户而言仅仅是nice to have,但是没有这个功能其实对大家并不是一个不能接受的退步。
总体上,对于应用的拓展,类似移动互联网时代的原生AI应用的,相比于创造需求,解决当下需求,提高效率应该是当前AI能够看到机会,因此从B端角度入手,会是当前AI应用的主力方向。此外以AIpc和AIphone这种系统级别的终端创新,打破单个APP的数据割裂,会是C端应用最重要的尝试方向(anthropic专家观点)。
本次调研主要走访硅谷AI相关公司,总体印象是,AI的大模型和算力的技术进步仍在持续,其中大模型的进步已经度过了去年chatgpt的惊艳阶段,模型能力的演进相对平缓。算力的需求仍然旺盛,相比模型的进展本身,算力由于存在比较明确的供需紧缺,整个环节看起来更加景气。
应用端的创新也面临着一定瓶颈。从应用端,落地的产品并不多。应用目前c端原生产品遇到瓶颈,更多的是B端需求,以及可能需要依赖手机,电脑等终端厂商对产品形态进行调整释放创新空间。
落实到投资维度,主要相关的在算力与应用端。算力板块在一年维度仍能保持比较强的景气可见度,甚至不排除继续超预期的可能。仍是AI方向最值得配置的板块。应用领域,调低国内
AI原生应用
以及国内大模型公司c端商业化进展的预期,关注有B端布局的公司。更关注AIpc和AIphone的带来的潜在的用户体验的超预期。
6
月与公司领导和同事共同调研了北美
AI
产业链相关公司(英伟达
/
英特尔
/Openai/Anthropic/Meta/Google/
微软
/
亚马逊
/Adobe/
特斯拉
/Supermicro/
中际旭创北美
/
美国头部高校
AI
相关老师),主要小结如下:
应用侧:
(
1
)
2B
应用:
Adobe&
微软将
AI
嵌入到现有的软件,
目前客户的付费意愿提升不是很快
(个位数水平)
,
需要产品进一步的优化迭代。
但总体上,
2B
的
AI
应用的
API
调用量仍在快速增长(和国内类似),主要集中在内部搜索(知识库)、营销推广等。
Nvidia
投入很多精力,将逐步推广
AI
和
GPU
在不同垂直行业的应用(例如生物医药、半导体光刻、量子物理等)。目前的企业
AI API
调用已经开始
价格战(和国内类似)
。目前调用量最大的并不是性能最高的模型,而是
参数量适中能力适中的中等模型。
(
2
)
2C
应用:
Chatgpt
略有瓶颈(刚需的知识性用户没有那么多,同时法律等低容错业务不敢用),谷歌后续重点发展多模态相关的应用(需要配合下半年和明年发布的
Gemini 2/3
新模型)。
2C
的应用可能后续需要在端侧和用户的娱乐生活进行进一步更简单的整合,
降低使用门槛
。(除了社交
app
,
C
端用户并不喜欢打字)。
(
3
)自动驾驶
&
机器人:
自动驾驶
:
(
1
)特斯拉:
目前端到端自动驾驶仍不足够成熟,
1
个月的
FSD
免费试用之后,转化率并不高。
使用者
反馈安全性不足,接管较多。
马斯克在
24
年激进购买英伟达芯片,等待继续迭代的效果。
(
2
)英伟达:
由于国外车厂软件和算法能力不足,英伟达需要做更多的应用和开发层工作。目前合作较深的是奔驰,在给奔驰的油车平台做适配。
机器人:
普遍评价落地仍较远,需要多模态大模型的成熟
+
数据反馈的闭环(光靠仿真数据还不够),
机器人的
Chatgpt
时刻可能还要
3-5
年。
大模型侧:
在过去
1
年,主要的玩家之间的模型差距在缩短(
Meta
、谷歌专家的观点)。后续能持续在牌桌的玩家大概率是
3
大创业公司
Openai
、
Anthropic
(亚马逊谷歌投资)、
xAI
(马斯克投资)和
Meta
、谷歌。
技术进步的角度,文本数据面临一定的瓶颈(快扒光了),后续需要在合成数据、多模态、新的算法等方面寻找突破(
OpenAI
专家相对乐观)。
本次调研,谷歌的大模型进步速度超预期,且在硬件集群能力上超出其他玩家一档(目前已有
50
万卡的集群,其他同行在数万卡的级别),后续值得关注。
国内玩家主要受制于算力、人才密度,预计持续处于追赶的状态。(不是很好从北美挖人)
但目前没有看到差距持续拉开。
芯片算力侧:
英伟达:
3
万员工有
2
万是做软件的,构筑的软件生态从各方面降低客户的开发和运行成本。对
AMD
、英特尔的竞争并不担心(客户核心考虑开发效率和
Total Cost
,用其他的芯片训练大模型训练崩了,时间资金成本损失巨大)。谷歌
TPU
是独立生态,主要自己用,其他人不怎么用(
Anthropic
用)。微软、亚马逊的自研
AI
芯片仍需要很长的时间。华为因为其全栈的能力以及下游客户的适配配合,长期在国内会有竞争力。
后续单纯单颗芯片的性能提升会降速,但是通过架构的优化(
Chiplet
、堆叠)、网络的优化、内存带宽的优化(靠
HBM
自身的性能提升),仍有较快的进步空间。
预计后续有可能给国内提供阉割版的
H100
。
光模块侧:
硅光会快速推广,旭创会有更强的竞争力。但长期
CPO
技术的颠覆性(光模块被集成)、中美关系的潜在风险会成为潜在风险点。
其他:
(1)
AI
学术研究水平(北美头部高校
AI
相关老师评价):
清华的
AI
学术研究水平和北美头部高校在同一水平线
(产业更新太快,博士带着老师跑,博士的水平比老师的水平更重要,清华姚班一半出国一半在国内)。
国内其他高校弱一档。
(2)
骨干员工薪酬(以头部高校数学博士为例):
OpenAI
:
80-120
万美元(工资
+
期权)
谷歌
/Meta AI
部门
:50
万
+
美元。(开源部分成果,允许发