大模型哲学:能prompt就prompt,能few shot就few shot,实在不行在微调。
先看榜单,Open LLM 排行榜是 Hugging Face 设立的一个用于评测开放大语言模型的公开榜单。
https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard,在这个榜单上目前排名第一的是基于qwen72B微调出来的。
#
常见任务
-
中文RAG
做RAG用通用模型就可以,在中英文方面用qwen72B效果是不错的,上下文长度32k,command-r-plus也支持中文,模型大小104B,⇲https://huggingface.co/CohereForAI/c4ai-command-r-plus,上下文长度:128K
-
Agent/Function Call
主要是意图指令识别,推荐qwen1.5系列14B和70B,qwen系列对json的支持比较好,llama3也可以试试
-
网络安全垂直领域对话大模型
主要基于安全社区文章,安全问答,漏洞等数据做网络安全垂直领域大模型
小参数可以4xA100全量微调和lora微调,大参数4xA100可以lora微调
小参数推荐:Mistral 7B,qwen1.5 2B,7B,14B,Mistral模型微调效果非常惊艳,但是词表中文少,中文回答可能字会不够。qwen模型参数大小选择很多,小模型可以在一些没有gpu的机器上运行,模型效果稍弱mistral。
大参数推荐:Mixtral-8x22B 和 qwen72B 和 c4ai-command-r-plus,还有新出的llama3 70B,这类开源的参数级可选择就这么多,llama3还没试,主要推荐c4ai-command-r-plus,效果堪比GPT3.5,再lora预训练和sft一下安全知识,推理能力非常强。也可以基于yi-33B 200k微调对话模型,但是准备的数据需要很多,用33B主要是int4量化后可以在一个4090/3090上跑。
-
代码类任务模型
用的比较多的是codegen和deepseek-coder,中英文支持都不错,codegen是比较老的模型,但是few shot效果就很不错,few shot效果不错的模型微调起来效果都很好。deepseek-coder是比较新的模型,支持的参数量级最高到33B,应该是开源代码模型里面参数级别最高的,codellama也有30B和70B,效果不太好。