大家平常使用的AI大模型都是通用型的大语言模型,这类模型在通用场景下确实有非常好的效果。
平时我在写方案、写代码、做行业研究时都离不开它。
但像审计这类垂直专业领域,它就显得没有那么智能了。
原因就在于,它缺少行业专业领域数据的训练。
在此之前,我尝试在本地搭建行业知识库,运行大模型RAG(检索增强生成)技术,来增强其在专业领域的效果。
它会将你上传的文本数据,向量化存储在数据库中,等你向其提问时,会搜索出最相关的文本,再用大模型根据这些文本向你进行回答。
这种方案在查询法规等知识的时候,效果是非常好的。
但它还是一种外挂的方式,并没有增加大模型在专业领域智能。
所以,我想到了对大模型进行微调,训练一个Lora.
对于玩 stable diffusion 图像生成的来说,Lora 并不陌生,它不需要你重新训练一个大模型,只是在其基础上微调训练一个小的模型,让期具备风格化。
但之前网络上的微调方法都是基于 Nvidia 显卡的,我只有一个 3080 显存仅有8G的显卡,显存根本不够微调一个稍微大一点的模型。
直到周末我们看到了这样一个视频:
https://www.bilibili.com/video/BV1MH4y1g77V
使用 Mac 的mlx 深度学习框架 mlx ,直接可以在 mac 上微调训练。
这不巧了吗?我手里就有一台顶配M3 max 128G 的笔记本,相当于显存128G。( 要达到这么大的显存也得几十万了 )
这不一般的开源大模型都可以训练了么。
视频中,作者是将B站的优秀评论作为训练数据,训练出一个 AI B友。
我照着视频中的方法,复现了出来。使用的是阿里开源的通义千问320亿参数的模型。
训练大概花了半天的时间,喂的数据量大概是一两万的评论数据。