Openai GPT-4o,Google Gemini,Meta Llama3......
无论闭源还是开源,大模型技术的发展今年是你方唱罢我登场,而且迭代速度飞快,在短短一年间就有了大幅度的技术迭代更新,LoRA、模型压缩、QLoRA、DeepSpeed、Megatron-LM、Flash Attention、RLHF、DPO等等,几乎每天都有新的发展。我们总结了算法工程师需要掌握的大模型微调技能,并制作了大模型微调技能图谱,希望可以帮助大家将知识体系梳理清楚,为未来在大模型的工作与科研道路上节省时间,提高效率!作为算法工程师,面对如此庞大又在飞速迭代的大模型技术体系,您是否有感觉自己的学习步伐有点跟不上技术的发展?或者对这些新兴技术的理解仅仅停留在应用层面上,实际上对背后的原理并没有深入剖析过?如果您希望在大模型赛道上持续保持竞争壁垒,对技术本身的深入理解是很必要的选项。 鉴于这类痛点,并迎合技术的发展,贪心科技推出《大模型微调应用实战营》,通过3个月的时间,全面掌握以上图谱中列出的知识技术以及背后的精髓,帮大家大大节省学习成本。下面是5个阶段学习安排,感兴趣的朋友们欢迎扫码咨询。
第九章:【项目实战2】LoRA微调Alpaca项目第十二章:【项目实战3】QLoRA参数微调智能客服项目第十七章:【项目实战4】微调QLoRA+Flash Attention- 结合QLoRA和Flash Attention的策略
第二十章:【项目实战5】ChatGLM微调医疗模型第二十三章:Mistral和Phi开源模型家族和应用- MoE(Mixture of Experts)模型概念
第二十五章:【项目实战6】Mistra 8x7B微调智能客服模型第三十章:RLHF技术和应用
- DPO(Direct Preference Optimization)概念
第三十二章:【项目实战7】RLHF推荐模型对齐项目 | |
| |
| |
| 25人以内学习群,助教答疑,保证遇到的问题被快速解决 |
- 拥有丰富的大模型微调/情感分析/博文品牌识别/问答系统等各类项目经验