专栏名称: 架构师之路
架构师之路,坚持撰写接地气的架构文章
目录
相关文章推荐
架构师之路  ·  别TM浪费算力了,这样才能最大限度发挥dee ... ·  3 天前  
高可用架构  ·  漫谈DeepSeek及其背后的核心技术 ·  2 天前  
美团技术团队  ·  CVPR 2025 NTIRE赛事 | ... ·  2 天前  
51好读  ›  专栏  ›  架构师之路

别TM浪费算力了,这样才能最大限度发挥deepseek的潜能 - MOE(第3讲)

架构师之路  · 公众号  · 架构  · 2025-02-08 18:05

正文

deepseek原理应用与实践》

3.deepseek极限潜能 - MOE

最近几周自学deepseek原理+应用+实践,一些成果,和大家分享:

1. 小众关心的, deepseek核心技术原理

2. 大众关心的, 提示词要怎么写


今天和大家聊聊,deepseek的核心机制之一的 混合专家 M OE


什么是混合专家MOE?


混合专家,Miture of Experts,该模型思路 不再追求大而全,转而追求多而专精 。它会将任务动态路由给各个领域专家,并将各个领域专家的输出进行组合。

比较抽象,举个容易理解的例子。
大而全 模型 :全栈工程师。
混合专家模型 :Java,FE,QA,DBA,OP工程师...

大而全的模型有什么不足?
1. 训练时间长:培养一个“全栈”工程师太久了;
2. 计算性能差:面对一个产品需求,做设计编码上线周期长;
3. 回复不深入:什么都懂,但都不精,浅尝辄止;

而混合专家模型则能够很好的解决上述几个问题:
1. 培养一个Java工程师的周期更短;
2. 需求评审完之后,Java,FE,QA...  多个专家可以 并行 设计编码上线;
3. Java,FE,QA专人专岗,专业性高;

有了MOE之后,对LLM的架构有怎么样的影响?

学习与训练阶段
之前:追求多参数
如今:训练多专家Expert(例如:1万个专家,每个专家 单一职责 SRP)

计算与执行阶段
之前:收到提示词input,一上来就干
如今:
1. 先判断,需要几个专家(分类任务,很容易);
2. 动态路由 (需要一个 门控网络 作为协调者,Gating Network),分发任务给专家,专家 并行计算
3. 组合 专家输出 , 协调者再 统筹输出

i nput [提示词] --> 专家分类{专家E1E2...En}

门控网络 --> E1E2...En
E1 --> O1[输出1]
E 1 --> O2 [输出2 ]
...
E n --> On [输出n ]
O1O2...On --> 统筹输出[output]

MOE对我们写提示词, 获取更佳的 回答质量有什么 启示呢?
如果觉得AI回复缺乏深度,可以 显性告诉它,你希望它扮演什么专家角色来回复问题
画外音:模型分类出来的专家角色不一定100%准确。

bad case :如何设计高并发高可用系统?
这样的提示词,你会得到一个泛泛而谈的回答。

good case 假设你是由以下专家组成的团队
1. 分布式领域系统架构师
2. 电商领域业务架构师
3. 资深DBA
请分别从各自领域提出5项技术选型建议,并组合 设计 方案满足每秒10万次交易,数据满足最终一致性,故障恢复时间小于30秒的系统。

节省 训练资源,缩短回复时间,提升回答质量,多个专家还能够交叉验证(大而全模型可能过拟合) ,deepseek创新性使用MOE之后,很快就得到了业界的广泛认可与复制。

deepseek,流弊!






请到「今天看啥」查看全文