专栏名称: 独角兽智库
独角兽智库是一个新兴产业投研平台,搭建新兴领域高端技术与投资机构、传统行业的桥梁,让专业的资本找到优质的企业,实现新兴产业的快速发展。平台提供新兴产业干货报告、专家咨询服务。
51好读  ›  专栏  ›  独角兽智库

再访硅谷:DeepSeek带来的震撼与思考

独角兽智库  · 公众号  · 科技投资  · 2025-02-08 22:31

正文


独角兽智库 产业研究第一智库

独角兽投研情报群招募


独角兽智库发展至今,历时9年,积累了大量资源,也和顶尖投研资源形成了利益共同体,并经过今年近一年的产品测试,小范围会员服务近两年。

十一月精准把握住了 固态电池、AI+ 等板块机会,个股 桂发祥、华胜天成、供销大集

现开放体验名额,加微信 :itouzi8888, 文末有二维码


2023年5月,我们在硅谷学习考察后,提出前瞻性的观点:“算力需求没有天花板”、“看好国内大模型追赶全球领先大模型的进度”、“大模型部署在边缘侧与移动端是一个必然趋势”(详见2023年5月《硅谷AI考察报告》)。2023-2024年这些观点均一一得到验证。


时隔两年,为了了解硅谷AI发展最新动向,2025年初我们再次专程前往硅谷学习考察。此行收获多多,感触颇深。所了解到的很多关于AI的新认知,与国内目前资本市场的理解不尽相同,甚至天差地别,这些差异也许蕴含着重要的投资机遇。为此,特将此次学习考察收获第一时间与各位分享。


我们从芯片、大模型、再到各类AI应用的发展趋势三个方面来介绍硅谷AI考察之行的收获:

1 芯片:算力依旧没有天花板,但以ASIC为代表的推理算力扮演越来越重要角色

1.1 ASIC相比GPU推理成本有一个数量级的领先

在算法固定的场景下,以谷歌TPU为例的ASIC推理成本或小于英伟达GPU一个数量级(十分之一)。相比具有所有算子的GPU,ASIC只包含局部算子,虽然在可能需要随时更新算法的训练场景支持不足,但在算法定型的推理场景,针对该场景定制的ASIC具有较强的推理成本优势,以谷歌云官网价格为例,TPU v5E租赁价格为0.5美元/小时,远低于英伟达H100约5美元/小时(含配套CPU)的租赁价格。此外,在互联方式上,谷歌TPU使用环形连接方式,其拓扑结构使得数千张卡互联成为可能,进一步降低互联成本。


1.2 ASIC定制或开启新一轮军备竞赛

从趋势上来说,云巨头都希望实现ASIC的大规模部署,从推理到训练逐步渗透,或开启新一轮AI 基础设施的军备竞赛。伴随AI应用需求不断扩大,以谷歌为代表的云厂商发现模型的性能差距在缩小、推理成本成为核心竞争力,一些应用厂商会因为谷歌云推理成本低而迁移过来。作为降低推理成本最确定的方式,各大云厂商以及OpenAI等大模型厂商已经开始与博通、Marvel等厂商合作打磨ASIC,一般合作方式为甲方提供计算单元(算法固化),计算核心之间的布局、IP、记忆单元、节点迁移等其他问题都由博通、Marvel提供解决方案。由于芯片的研发是综合性的工作,涉及数万个节点,每个人只了解其中的一部分技术,在团队研发过程中会遇到各种问题,使得设计的周期非常长,通常来说ASIC芯片设计到流片需要一两年的时间,博通和谷歌的合作进行了十年,才最终完成了一套比较成熟的解决方案。目前推理端从GPU替换为TPU难度比较低,训练端的替换可能需要大量工程师配合,带来较大人力花销。所以目前只有谷歌的训练端ASIC渗透率较高。


图:谷歌TPU架构

图片

资料来源:民生证券研究院


1.3 在训练端,GPU仍然具有不可替代性

在处理多模态数据方面,GPU具有不可替代性,未来端到端多模态大模型训练将进一步带动GPU需求。在视频处理、仿真模拟领域,英伟达GPU仍然具有较大优势。若采用语言大模型+转换器的方式,一些像素点可能会被略过导致训练效果不好,需要后期调整等各种工程化能力弥补;但是,从美国的工程师文化来看,如果缺乏足够的资源支持开发团队进行大量尝试,过分强调工程上的优化会打击研发者的探索热情,因此在ASIC训练端出现重大突破之前,GPU仍然具有不可替代性,当前多模态(视频等)训练还有较大提升空间,仿真模拟场景训练刚刚兴起,GPU远未达到饱和。


1.4 远期视角,算力的合理配置或许是异构搭配模式

算力的最终形态可能将是ASIC、FPGA、GPU的统一生态。对于大模型来说,算法可能还需要不断调整,使用通用性最好的GPU仍然是首选,展望未来,10万卡GPU集群或是企业能够承受的合理边际,进一步扩展会出现算力的边际效应递减,跨集群分布式训练或成为未来的新范式;对于固定场景或垂直小模型来说,使用ASIC成功率更高,但需要关注未来小模型与大模型共存的情况下,模型间的协同问题;在对性能功耗比要求比较苛刻的端侧使用ASIC、FPGA将成为比较好的解决方案。

2 模型发展更务实:推理模型与ROI成为重点方向

2.1 推理大模型正在成为新一轮巨头竞赛的核心

传统大模型参数量的scaling law告一段落,目前巨头新模型的重点是推理的scaling law。OpenAI o系列大模型的成功验证了推理的scaling law,更先进的大模型可能是将传统大模型与推理大模型二合一,不止能够对于简单问题快速响应,还能够对复杂问题利用推理链给出正确推理。推理模型的兴起,一方面显著提高了推理端的算力需求(传统大模型输出一个答案可能几百tokens、推理大模型输出一个答案的思维链可能包含几千几万tokens),另一方面对RL强化学习产生新的需求(比如大模型给出几个落子选择,标注人员判断这几个选择哪个更好或更不好)。需要注意的是,强化学习算法良好运行的前提是具有性能较好的大模型,而性能较好的大模型需要通过预训练来获得,所以RL与预训练是共赢的关系。


图:推理模型领先性

图片

资料来源:民生证券研究院


2.2 模型开始关注落地性,ROI成为重要指标

伴随AI应用落地的不断探索,垂类模型和小模型等一系列能够跑出较高ROI的模型越发得到青睐,未来或成为应用的主力模型。在真实应用场景中,大模型的表现未必好,其一是参数量大推理成本比较高,其二是训练数据主要是互联网公开数据,缺少非公开的行业专属数据、隐私数据等,导致大模型在垂直场景未能达到预期。此外,对于准确性要求较高的场景,大模型层数越多,准确性越不可控,因此利用企业内部数据蒸馏、训练小模型用于应用是AI应用落地的重要补充方案,如Salesforce的AI应用Agentforce从训练到应用专门都是用Salesforce自己的数据结构、数据体系,因此Salesforce的客户使用Agentforce时效果比较好。此外,小模型在灵活部署方面竞争优势明显,谷歌可以给客户提供性能较强的5B参数量模型,可以直接部署在端侧,进一步打开应用的空间。


2.3 DeepSeek证明了开源生态的重要意义

DeepSeek证明了开源生态的强大创造力,或带动AI开源创新的浪潮。DeepSeek的成功与创新密不可分,早在24年上半年,DeepSeek就发布了首个混合专家模型,显著降低大模型的推理成本,最新的DeepSeek V3/R1创新使用了FP8训练/推理、纯RL标注、GPU底层优化等技术,纯训练阶段仅花费约500万美元便训练出671B的推理大模型,模型性能达到全球领先水平。DeepSeek的成功,有望带动AI开源创新的新浪潮,未来或许各类新算法、新工程方法、新的应用理念会层出不穷,推动AI生态进一步繁荣。


图:开源生态快速发展

图片

资料来源:民生证券研究院

2.4 2025年或迎来视频生成模型“ChatGPT”时刻
预计2025年,视频生产模型性能将大幅提升,人们能够以较低成本获取质量不错且可控性有所提升的模型。在技术上,今年有望实现视频的前期、中期和后期控制,如让熊站起来再坐下,同时视频中生成文字的能力也应可实现,不过其能否真正用于电影制作等复杂场景仍不确定,若技术取得突破,短视频和电影制作等领域可能会受影响。未来,随着算力提升,视频质量将进一步提高,可控性和效率将大幅提升,视频能够处理更复杂的内容,甚至自回归方法可能会取得进展,减少奇怪错误,这些是短期内可预见的进展。

图:文生视频模型快速发展

图片


资料来源:民生证券研究院

3 应用:商业模式与生态快速繁荣

3.1 B端应用:AI Agent打开“数字劳动力”万亿美元蓝海市场

美国企业云化程度高,数据质量高、场景简单、工作流程明确,同时由于安全要求不能直接用GPT这类2C产品,因此天生就适合AI Agent落地。美国企业云化程度高,积累了大量优质的历史业务数据,能够训练出非常强大的垂直模型用于AI Agent;与此同时,美国企业业务流程标准化程度高,因此Workflow-based Agent在美国非常受欢迎,企业只需要定制一系列完成专门流程的AI Agent就能够起到很好降本增效的效果。以招聘一名客服人员为例,本来需要发布招聘信息、撰写职位描述、筛选所有的求职申请、确定企业可能想要聘用的人选、发送面试邀请、安排面试、进行面试、进行培训、教他们公司业务等,每次招聘都需要重复这样的过程;有了AI Agent,只需创建模块,复制过程就可以完成。AI Agent在效率和可扩展性方面有巨大的优势,如果公司业务发生变化,只需要更改模块新信息会自动注入到系统中,AI Agent按照新方式与客户互动。企业实际上拥有一支可以全天候工作的劳动力队伍,可以自动接受培训,能够像处理客户问题一样高效地处理数据,并且能够与不同的人进行个性化和定制化的互动。总结来说,在B端,AI Agent是“数字劳动力”,能够真正像一个员工一样能够按照流程完成各种任务。


定制化程度决定AI Agent的上限,其核心竞争力是数据。AI Agent不是简单的自动化产品,而是在训练后具有能够灵活处理工作流程中不同情景问题的能力,比如给客户写信的Agent,针对不同的客户,AI Agent可以调取客户的相关数据、调取客户的历史往来,写一封真正推进业务进展、而且客户喜欢的信。


美国企业看重接口,不同SaaS厂商的AI Agent之间有望互通互联,促进整个AI Agent生态繁荣。当前不同SaaS厂商之间的AI Agent接口权限尚未完全打通,导致做不同的事情需要用不同SaaS厂商的AI Agent,未来硅谷在设想定义一套AI SaaS生态规范,类似HDMI协议一样,只要双方的AI Agent都支持这个协议,就可以互通互联,企业的AI Agent就可以像秘书一样帮忙订餐、点咖啡等,进一步扩大能力范围。


美国企业以极高的热情拥抱AI Agent,当前企业以投资的视角考核AI,而非费用。企业的软件投入,往往以替代员工为公司省钱的方式贡献“收入”用于测算ROI;在AI时代,企业会以AI挖掘了多少企业没有利用的数据作为“收入”来测算ROI。


图:文生视频模型快速发展

图片 资料来源:民生证券研究院


3.2 C端应用:生态和新型AI终端或成为破局关键

海外巨头也在持续探索C端AI应用如何变现,传统的ChatBot模式目前多数尚未盈利,基于大模型改进推荐系统路径是当前C端的核心盈利模式,虽然稳定但缺乏弹性。核心原因是当前90%的C端需求都会直接被大模型满足,缺少进一步增值服务的点,以ChatGPT为例,当前其90%的需求都是菜谱等简单需求。未来,C端应用的破局关键在于生态整合或新型AI终端平台两种模式:


1)生态整合本质上是教育C端如何接受AI应用,以Adobe为例,其在PS、Acorbat等各种工具已经开发无数AI增值模块,用户很多时候都不知道Adobe的产品拥有某AI能力,此时Adobe开发一个陪伴式AI助手,时刻教会用户如何利用Adobe的生态完成需求;后续,AI可以根据用户需求历史将常用AI功能放在界面首页,形成千人千面的AI增值服务;


2)通过AI眼镜等AI终端争夺用户是大多数科技公司都认可并在尝试的路径。其核心原理是没有容易变现的AI场景就去通过新的终端创造,如实时分析的AI眼镜、具身智能机器人、全屋智能家电等,AI终端将会百花齐放。


风险提示:技术落地不及预期,行业竞争加剧。

现开放投研情报群体验名额,更多投研情报服务,请往下看



独角兽投研情报会员服务

服务概述

现在的 A 骨市场,风格切换极快,不论是做赛道成长、风口波段、价值投资、龙头打板、技术短线都处于短暂有效,大多数时间亏损的情况,只有一点持续有价值,那就是快人一步的信息,这种信息不会是财联社的新闻,不是知识星球的调研纪要、更不会是公社的吹票逻辑。

服务主旨

提供各种快人一步的投研信息,让你明明白白知道盘中异动。

情报来源

独角兽智库投研情报团队已经根植在大 A 各个生态阶层:

1 :公募核心圈,提前获取公募看好的大方向和主攻领域。

2 :券商分析师圈,深入各大券商核心客户群,提前获取券商主推逻辑。

3 :游资核心圈,在游资大佬的小圈子有一席之地,提前获取大资金动向。

4 :产业链圈,各个新兴产业技术核心圈子,提前挖掘技术变革推动的 A 股炒作逻辑。

服务内容

1 、大资金抱团动向

2 、集合竞价龙头早知道

3 、先手小作文

4 、券商主推方向及逻辑

5 、市场的机会和风向提示

6 、个骨和行业避雷

服务方式:

微信群 -- 只有微信群的消息才可以做到第一时间的信息传递。


现开放体验名额(非免费,白嫖勿扰)


加入体验方式 (如果您关注短线交易)

请加微信: itouzi8888 ,备注: 体验+姓名+公司+职位

如果您关注基本面,做波段或者价投

请加微信: itouzi5 ,备注: 体验+姓名+公司+职位







请到「今天看啥」查看全文