专栏名称: 黄建同学
数码博主 超话主持人(ChatGPT超话) 头条文章作者 我的学习笔记,关注AI+新能源
目录
相关文章推荐
爱可可-爱生活  ·  视觉触觉融合的双速机器人控制 查看图片 ... ·  20 小时前  
宝玉xp  ·  ... ·  20 小时前  
爱可可-爱生活  ·  用强化学习控制推理模型的思考时长 ... ·  昨天  
宝玉xp  ·  回复@zzqq12:如果你们对 Manus ... ·  2 天前  
黄建同学  ·  分享一个Manus的体验总结↓AI技术的发展 ... ·  3 天前  
51好读  ›  专栏  ›  黄建同学

Maxime Labonne与Huggingface和Ben B-20250309085235

黄建同学  · 微博  · AI  · 2025-03-09 08:52

正文

2025-03-09 08:52

Maxime Labonne与Huggingface和Ben Burtenshaw合作,教大家如何使用GRPO微调大型语言模型(LLMs)。

在这份notebook中,使用过滤后的smoltldr数据集对一个小型的SmolLM-135M模型进行了微调。凭借奖励函数,鼓励模型输出大约50个字符的简短生成内容("TL;DR")。有趣的是,这个135M的模型仅使用2000个样本就能学会这种行为!

最终结果的质量各不相同,但调整超参数并获得这些小型模型如何与GRPO配合的直觉,是一个令人着迷的练习。

课程链接:huggingface.co/reasoning-course
Notebook:colab.research.google.com/grpo_finetune.ipynb

图1-决策树:以在GRPO、DPO和PPO之间进行选择,以微调中等大小的指令模型(这个要收藏)

#ai创造营# #程序员# #deepseek#






请到「今天看啥」查看全文