独角兽投研情报群招募
独角兽智库发展至今,历时
9
年,积累了大量资源,也和顶尖投研资源形成了利益共同体,并经过今年近一年的产品测试,小范围会员服务近两年。
十一月精准把握住了
固态电池、AI+
等板块机会,个股
桂发祥、华胜天成、供销大集
等
现开放体验名额,加微信
:itouzi8888,
文末有二维码
DeepSeek开源周最后一天放了个大招,亲自揭秘了DeepSeek-V3/R1推理系统。
市场关注度更高的是,DeepSeek 还公布了自己的成本收益:
DeepSeek在推算成本时,假定GPU租赁成本为2美金/小时,据此计算出总成本为87,072美金/天。
而在收入方面,如果所有tokens都按照DeepSeek R1的定价进行计算,那么理论上一天的总收入可以达到562,027美金。
基于这些数据,DeepSeek进一步计算出了
成本利润率
,高达545%。
硅基流动袁总:
DeepSeek 官方披露了大规模部署的成本和收益,又一次颠覆了很多人认知。现在很多供应商还做不到这个水平,主要是V3/R1架构和其它主流模型差别太大了,由大量小Expert 组成,导致过去大家瞄准其它主流模型结构开发的系统,都不再有效,必须按照DeepSeek报告描述的方法才能达到最好的效率。
而开发这样的系统难度很高,需要时间,幸好这周DeepSeek五连发已经把主要模块开源出来了,降低了社区复现的难度。
这些成果充分体现了DeepSeek团队第一性原理的思考方式和强悍的意志,他们应该是首先是基于某些原因(?)想到了用这样的模型结构,然后发现这样的模型结构,无论是训练还是推理,要做好的有非常大的工程挑战,不过这些问题在他们工程团队来说并不是搞不定的,关键是花那么大力气做完是否有大的收益呢,在最终结果出来前,谁也说不准。
他们还是赌了,结果是赌对了。
DeepSeek-V3
/ R1 推理系统
的优化目标是:更大的吞吐,更低的延迟。
为了实现这两个目标,我们的方案是使用大规模跨节点专家并行
(Expert Parallelism / EP)。首先 EP 使得 batch size 大大增加,从而提高 GPU 矩阵乘法的效率,提高吞吐。其次 EP 使得专家分散在不同的 GPU 上,每个 GPU 只需要计算很少的专家(因此更少的访存需求),从而降低延迟。
但 EP 同时也增加了系统的复杂性。复杂性主要体现在两个方面:
-
1. EP 引入跨节点的传输。为了优化吞吐,需要设计合适的计算流程使得传输和计算可以同步进行。
-
2. EP 涉及多个节点,因此天然需要 Data Parallelism
(DP),不同的 DP 之间需要进行负载均衡。
因此,本文的主要内容是
如何使用 EP 增大 batch size,如何隐藏传输的耗时,如何进行负载均衡
。
大规模跨节点专家并行(Expert Parallelism / EP)
由于 DeepSeek-V3 / R1 的专家数量众多,并且每层 256 个专家中仅激活其中 8 个。模型的高度稀疏性决定了我们必须采用很大的 overall batch size,才能给每个专家提供足够的 expert batch size,从而实现更大的吞吐、更低的延时。需要大规模跨节点专家并行(Expert Parallelism / EP)。
-
Prefill
:路由专家 EP32、MLA 和共享专家 DP32,一个部署单元是 4 节点,32 个冗余路由专家,每张卡 9 个路由专家和 1 个共享专家
-
Decode
:路由专家 EP144、MLA 和共享专家 DP144,一个部署单元是 18 节点,32 个冗余路由专家,每张卡 2 个路由专家和 1 个共享专家
计算通信重叠
多机多卡的专家并行会引入比较大的通信开销,所以我们使用了双 batch 重叠来掩盖通信开销,提高整体吞吐。
对于 prefill 阶段,两个 batch 的计算和通信交错进行,一个 batch 在进行计算的时候可以去掩盖另一个 batch 的通信开销;
对于 decode 阶段,不同阶段的执行时间有所差别,所以我们把 attention 部分拆成了两个 stage,共计 5 个 stage 的流水线来实现计算和通信的重叠。
关于更多双 batch 重叠的细节,可以参考我们的 profiling 数据的 GitHub 仓库:https://github.com/deepseek-ai/profile-data
尽可能地负载均衡
由于采用了很大规模的并行(包括数据并行和专家并行),如果某个 GPU 的计算或通信负载过重,将成为性能瓶颈,拖慢整个系统;同时其他 GPU 因为等待而空转,造成整体利用率下降。因此我们需要尽可能地为每个 GPU 分配均衡的计算负载、通信负载。
-
-
核心问题:不同数据并行(DP)实例上的请求个数、长度不同,导致 core-attention 计算量、dispatch 发送量也不同
-
优化目标:各 GPU 的计算量尽量相同(core-attention 计算负载均衡)、输入的 token 数量也尽量相同(dispatch 发送量负载均衡),避免部分 GPU 处理时间过长
-
-
核心问题:不同数据并行(DP)实例上的请求数量、长度不同,导致 core-attention 计算量(与 KVCache 占用量相关)、dispatch 发送量不同
-
优化目标:各 GPU 的 KVCache 占用量尽量相同(core-attention 计算负载均衡)、请求数量尽量相同(dispatch 发送量负载均衡)
-
3. Expert-Parallel Load Balancer
-
核心问题:对于给定 MoE 模型,存在一些天然的高负载专家(expert),导致不同 GPU 的专家计算负载不均衡
-
优化目标:每个 GPU 上的专家计算量均衡(即最小化所有 GPU 的 dispatch 接收量的最大值)
参考架构图
线上系统的实际统计数据
DeepSeek V3 和 R1 的所有服务均使用
H800 GPU
,使用和训练一致的精度,即矩阵计算和 dispatch 传输采用和训练一致的 FP8 格式,core-attention 计算和 combine 传输采用和训练一致的 BF16,最大程度保证了服务效果。
另外,由于白天的服务负荷高,晚上的服务负荷低,因此我们实现了一套机制,在白天负荷高的时候,用所有节点部署推理服务。晚上负荷低的时候,减少推理节点,以用来做研究和训练。在最近的 24 小时里(北京时间 2025/02/27 12:00 至 2025/02/28 12:00),DeepSeek V3 和 R1 推理服务占用节点总和,峰值占用为 278 个节点,平均占用 226.75 个节点(每个节点为 8 个 H800 GPU)。假定 GPU 租赁成本为 2 美金/小时,总成本为 $87,072/天。
在 24 小时统计时段内,DeepSeek V3 和 R1:
-
输入 token 总数为 608B,其中 342B tokens(56.3%)命中 KVCache 硬盘缓存。
-
输出 token 总数为 168B。平均输出速率为 20~22 tps,平均每输出一个 token 的 KVCache 长度是 4989。
-
平均每台 H800 的吞吐量为:对于 prefill 任务,输入吞吐约 73.7k tokens/s(含缓存命中);对于 decode 任务,输出吞吐约 14.8k tokens/s。
以上统计包括了网页、APP 和 API 的所有负载。如果所有 tokens 全部按照 DeepSeek R1 的定价
[1]
计算,理论上一天的总收入为 $562,027,成本利润率 545%。
当然我们实际上没有这么多收入,因为 V3 的定价更低,同时收费服务只占了一部分,另外夜间还会有折扣。
现开放投研情报群体验名额,更多投研情报服务,请往下看
独角兽投研情报会员服务
服务概述
现在的
A
骨市场,风格切换极快,不论是做赛道成长、风口波段、价值投资、龙头打板、技术短线都处于短暂有效,大多数时间亏损的情况,只有一点持续有价值,那就是快人一步的信息,这种信息不会是财联社的新闻,不是知识星球的调研纪要、更不会是公社的吹票逻辑。
服务主旨
提供各种快人一步的投研信息,让你明明白白知道盘中异动。
情报来源
独角兽智库投研情报团队已经根植在大
A
各个生态阶层:
1
:公募核心圈,提前获取公募看好的大方向和主攻领域。
2
:券商分析师圈,深入各大券商核心客户群,提前获取券商主推逻辑。
3
:游资核心圈,在游资大佬的小圈子有一席之地,提前获取大资金动向。
4
:产业链圈,各个新兴产业技术核心圈子,提前挖掘技术变革推动的
A
股炒作逻辑。
服务内容
1
、大资金抱团动向
2
、集合竞价龙头早知道
3
、先手小作文
4
、券商主推方向及逻辑
5
、市场的机会和风向提示
6
、个骨和行业避雷
服务方式:
微信群
--
只有微信群的消息才可以做到第一时间的信息传递。
现开放体验名额(非免费,白嫖勿扰)
加入体验方式
(如果您关注短线交易)
请加微信:
itouzi8888
,备注:
体验+姓名+公司+职位