专栏名称: 廖雪峰
业余马拉松选手廖雪峰的公众号,各种鸡汤混杂负能量,心理承受能力不强者慎重订阅。
目录
相关文章推荐
青年文摘  ·  商场一层的“温柔陷阱”,专坑年轻人 ·  2 天前  
洞见  ·  一个人最大的无能:抱怨家人 ·  5 天前  
深夜书屋  ·  终于等来了,绝版增订重印 ·  3 天前  
青年文摘  ·  “林黛玉倒拔垂杨柳”,好笑在哪里? ·  4 天前  
51好读  ›  专栏  ›  廖雪峰

仅需10分钟!本地快速安装运行史上最强开源LLaMa3大模型!

廖雪峰  · 公众号  ·  · 2024-05-05 10:30

正文

史上最强开源AI大模型——Meta的LLaMa3一经发布,各项指标全面逼近GPT-4。它提供了8B和70B两个版本,8B版本最低仅需4G显存即可运行,可以说是迄今为止能在本地运行的最强LLM。

虽然LLaMa3对中文支持不算好,但HuggingFace上很快出现了各种针对中文的微调模型,本文将从零开始介绍如何在本地运行发布在HuggingFace上的各种LLaMa3大模型。

准备环境

本文的演示环境是Mac M1 16G内存,自备科学上网工具,使用开源Ollama运行大模型,使用Open WebUI作为前端访问界面,通过浏览器访问,体验十分接近GPT:

安装软件

首先安装Ollama,它可以让我们非常方便地运行各种LLM。从Ollama官网下载,运行,点击安装Ollama命令行,然后在命令行测试Ollama是否已正常运行:

$ ollama -v
ollama version is 0.1.32

下载模型

Ollama可以直接下载内置的几种模型,但选择有限。我们更希望从HuggingFace下载以便方便地评估各种模型,所以,这里我们并不从Ollama直接下载,而是从HuggingFace下载。

在HuggingFace搜索 llama3 ,设置 Languages Chinese ,可以看到若干基于LLaMa3的中文模型:

我们选择一个GGUF格式的模型,GGUF格式是llama.cpp团队搞的一种模型存储格式,一个模型就是一个文件,方便下载:

点击 Files ,可以看到若干GGUF文件,其中,q越大说明模型质量越高,同时文件也更大,我们选择q6,直接点击下载按钮,把这个模型文件下载到本地。

导入模型

下载到本地的模型文件不能直接导入到Ollama,需要编写一个配置文件,随便起个名字,如 config.txt ,配置文件内容如下:

FROM "/Users/liaoxuefeng/llm/llama3-8b-cn-q6/Llama3-8B-Chinese-Chat.q6_k.GGUF"

TEMPLATE """{{- if .System }}
<|im_start|>system {{ .System }}<|im_end|>
{{- end }}
<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
"""

SYSTEM """"""

PARAMETER stop <|im_start|>
PARAMETER stop <|im_end|>

第一行 FROM "..." 指定了模型文件路径,需要修改为实际路径,后面的模板内容是网上复制的,无需改动。

然后,使用以下命令导入模型:

$ ollama create llama3-cn -f ./config.txt

llama3-cn 是我们给模型起的名字,成功导入后可以用 list 命令查看:

$ ollama list
NAME ID SIZE MODIFIED
llama3-cn:latest f3fa01629cab 6.6 GB 2 minutes ago

可以下载多个模型,给每个模型写一个配置文件(仅需修改路径),导入时起不同的名字,我们就可以用Ollama方便地运行各种模型。

运行模型

使用Ollama的 run 命令可以直接运行模型。我们输入命令 ollama run llama3-cn

出现 >>> 提示符时就可以输入问题与模型交互。输入 /exit 退出。

搭建Web环境

使用命令行交互不是很方便,所以我们需要另一个开源的Open WebUI,搭建一个能通过浏览器访问的界面。

运行Open WebUI最简单的方式是直接以Docker运行。我们安装Docker Desktop,输入以下命令启动Open WebUI:

$ docker run -p 8080:8080 -e OLLAMA_BASE_URL=http://host.docker.internal:11434 --name open-webui --restart always -v open-webui-data:/app/backend/data ghcr.io/open-webui/open-webui:main

参数 -p 8080:8080 将Open WebUI的端口映射到本机。参数 -e OLLAMA_BASE_URL=http://host.docker.internal:11434 告诉Open WebUI通过本机的11434访问Ollama,注意地址必须写 host.docker.internal ,不能写 127.0.0.1







请到「今天看啥」查看全文