随着大模型应用发展的深入,参数高效微调(PEFT)凭借定制化、精准性等优势,成为大模型优化的热门方式,其中,LoRA引入低秩矩阵,实现了不输全面微调的下游适应性能,但是,增长的训练需求也带来了存储和传输成本,为了显著提升LoRA计算效率,NeurIPS'24最新收录工作VB-LoRA,创新提出了分而共享机制,通过向量库进行全局参数共享,仅需LoRA参数0.4%,调优效率全面超越LoRA!
为了帮助大家掌握大模型顶会微调方法,研梦非凡于10月23日晚(周三),邀请了从事大模型研究的王导师,独家讲解《VB-LoRA:超越LoRA!大模型微调效率巅峰!》(AI前沿直播课NO.76),从大模型全量微调、PEFT,到LoRA及相关变体,重点讲解顶会方法VB-LoRA架构、实验,并介绍相关方法AM-LoRA,最后代码演示微调过程,1节课速通LoRA参数微调技术,get论文改进和实战知识点!
👇🏻扫描二维码找助教0元预约直播课!
凡预约即可领取130篇精选论文(30篇LoRA最新论文&代码&顶会方法+100篇大模型必读)
unsetunset10.23直播课内容概览unsetunset
01 研究背景
- LoRA变体VB-LoRA(NeurIPS’24)
02 知识准备
03 VB-LoRA方法(重点)
- 全量微调 vs LoRA微调 vs VB-LoRA
04 实验分析
👇🏻扫描二维码找助教0元预约直播课!
凡预约即可领取130篇精选论文(30篇LoRA最新论文&代码&顶会方法+100篇大模型必读)
05 相关工作
- AM-LoRA:通过注意力机制自适应混合LoRA以实现语言模型的持续学习
06 代码实现(重点)
直播课导师介绍
【学术背景】985硕出身,拥有丰富的深度学习研究、论文发表经验,多篇SCI论文、EI会议论文(一作)
【研究方向】大语言模型、视觉语言模型、多模态学习,以及自然语言处理、进化算法等
👇🏻扫描二维码找助教0元预约直播课!
凡预约即可领取130篇精选论文(30篇LoRA最新论文&代码&顶会方法+100篇大模型必读)
unsetunset研梦非凡科研论文指导unsetunset
idea并不是直接拍脑门拍出来的,是一遍一遍实验、跑代码、改模型、思路修正的过程中产生的。研梦非凡1V1定制化论文指导,和研梦导师一起找idea,研梦导师指导实验,共同解决数据问题。授之以渔——搭建论文写作框架,增删改查,针对性实验指导!哪里薄弱补哪里!
unsetunset研梦非凡部分导师介绍unsetunset
研梦非凡导师团队,来自海外QStop50、国内华五、C9、985高校的教授/博士导师/博士后,以及世界500强公司算法工程师、国内外知名人工智能实验室研究员等。这是一支实力强大的高学历导师团队,在计算机科学、机器学习、深度学习等领域,积累了丰富的科研经历,研究成果也发表在国际各大顶级会议和期刊上,在指导学员的过程中,全程秉持初心,坚持手把手个性化带教。包括但不限于以下导师~
<<< 左右滑动见更多 >>>
👇🏻扫码加助教为你匹配合适课题的大牛导师
我们不是小作坊哦~我们背靠研途考研(就是张雪峰老师和徐涛老师在的那个研途考研),做教育十余年,重交付,重口碑,是我们一贯的公司理念!