Ollama简介 安装 运行
大家好,我是章北海
之前简单介绍过在计算机本地运行开源大语言模型(LLM)的工具——Ollama 。它支持macOS、Linux、Windows
安装客户端:
https://ollama.com/download
下载后安装即可,然后就可以在Terminal中下载大模型,比如最近大火的mistral,4G左右。
模型下载完成后就可以直接在Terminal中聊天了,
我的电脑是丐版MacBook Air M1,依然运行良好。
Olamma + 通义千问
Olamma支持几乎市面上所有的开源大模型,这里就不完全列名了。Olamma支持大模型列表:
https://ollama.com/library
Model
Parameters
Size
Download
Llama 2
7B
3.8GB
ollama run llama2
Mistral
7B
4.1GB
ollama run mistral
Dolphin Phi
2.7B
1.6GB
ollama run dolphin-phi
Phi-2
2.7B
1.7GB
ollama run phi
Neural Chat
7B
4.1GB
ollama run neural-chat
Starling
7B
4.1GB
ollama run starling-lm
Code Llama
7B
3.8GB
ollama run codellama
Llama 2 Uncensored
7B
3.8GB
ollama run llama2-uncensored
Llama 2 13B
13B
7.3GB
ollama run llama2:13b
Llama 2 70B
70B
39GB
ollama run llama2:70b
Orca Mini
3B
1.9GB
ollama run orca-mini
Vicuna
7B
3.8GB
ollama run vicuna
LLaVA
7B
4.5GB
ollama run llava
Gemma
2B
1.4GB
ollama run gemma:2b
Gemma
7B
4.8GB
ollama run gemma:7b
如果想先测试一下,可以试试咱们国产大模型通义千问的0.5B版本,2G内存就能跑起来
简介:
https://ollama.com/library/qwen
Qwen是阿里云推出的一系列基于Transformer的大型语言模型,在大量数据上进行预训练,包括网络文本、书籍、代码等。
它有 6 种型号尺寸,包括 0.5B、1.8B、4B(默认)、7B、14B 和 72B
-
ollama run qwen:0.5b
-
ollama run qwen:1.8b
-
ollama run qwen:4b
-
ollama run qwen:7b
-
ollama run qwen:14b
-
ollama run qwen:72b
其他特性: