我是
小冬瓜AIGC
,原创超长文知识分享
原创课程已帮助多名同学上岸
LLM
赛道
知乎
/
小红书
:
小冬瓜AIGC
按照scaling law,越大的模型性能也越好
同时训练的难度也大幅提升
以下基于Llama-3-
70B
模型训练,对比SFT/PPO训练耗时
运算平台为A800(80G)x8 总体训练耗时<2天
上述为课程的实操结果
可复现
,更多课程内容详情如下:
一、课程概况
-
课程内容:直播 + 往期录播 +
手撕级Notebook
+ 非调包源码 + 算法图解 + 课程PPT
-
课程项目:垂域大模型实操 +
DeepSpeed多卡SFT、RM、PPO、DPO训练
-
进阶专题:
手撕LLaMA、
手撕RL、手撕RLHF PPO(Notebook)、LLM加速、LLM分布式训练
-
-
-
-
实操效果:本课程代码仓库MA-RLHF,实战多卡训练;
已全线支持
Llama-3-8B/70B SFT/DPO/PPO训练
;支持低成本百元8B-DPO训练;
详细目录:第9/10章节-RL/RLHF
第11章节-LLM加速(以长文档形式授课)
第12
章节-LLM分布式训练(
以
长文档形式授课
)
三、课程内容详情
3.1 课程直播+录播
3.2 课件PPT
3.3 源码工程+Notebook
-
pytorch工程,代码精简,全部调试可运行,CPU都能Run的代码
-
复杂代码Notebook随手debug,不惧手撕代码
-
非调包级工程、坚持逐行代码剖析算法原理,从代码视角,解密复杂的公式原理。
手撕RLHF PPO代码-Pytorch实现, 不依赖RL库
LLM中的RLHF-PPO算法复杂,
逐行手撕LLM中的PPO算法,
主要
通过Pytorch实现。
包含
4个模型:Ref/Actor/Critic/Reward、
PPO采样及训练流程、
Loss计算Actor Loss+Critic Loss+Entropy、
reward+KL散度...
3.4 实操项目
实操项目1 :垂域LLM微调Notebook
实操项目2 :DeepSpeed + RLHF + DPO + PPO 代码仓库
D
eepSpeed多卡RLHF-PPO训练实操
Llama-3-8B 全流程实操训练效果
基于Llama-3-8B 预训练模型,混合中英alpaca和ruozhiba数据;
全参微调SFT,轻松回复ruozhiba问题
QLoRA高效微调DPO、Reward Model和PPO
项目新增70B SFT/DPO/PPO 训练方案
70B 模型PPO 训练耗时
实践平台:A100(80G)x8
四、LLM社群 & 教学成果
4.1 内部LLM社群
4.2 部分教学成果
1️⃣:社科女PhD凭借RLHF成功拿到国内多家高校副教授教职