专栏名称: 机器学习算法与Python实战
长期跟踪关注统计学、数据挖掘、机器学习算法、深度学习、人工智能技术与行业发展动态,分享Python、机器学习等技术文章。回复机器学习有惊喜资料。
目录
相关文章推荐
为你读诗  ·  花草有本心:走近古典文学中的春天 ·  23 小时前  
为你读诗  ·  观之如冰,温润有方 ·  23 小时前  
为你读诗  ·  眼见草长花开,不禁又想起你来 ·  23 小时前  
歸藏的AI工具箱  ·  谷歌 Veo2:最强文生视频终于上线 ·  2 天前  
歸藏的AI工具箱  ·  谷歌 Veo2:最强文生视频终于上线 ·  2 天前  
51好读  ›  专栏  ›  机器学习算法与Python实战

本地运行“小型”大模型,配合笔记应用王者Obsidian做知识管理

机器学习算法与Python实战  · 公众号  ·  · 2024-03-29 18:01

正文

Ollama简介 安装 运行

大家好,我是章北海

之前简单介绍过在计算机本地运行开源大语言模型(LLM)的工具——Ollama 。它支持macOS、Linux、Windows 安装客户端:

https://ollama.com/download

下载后安装即可,然后就可以在Terminal中下载大模型,比如最近大火的mistral,4G左右。

模型下载完成后就可以直接在Terminal中聊天了, 我的电脑是丐版MacBook Air M1,依然运行良好。


Olamma + 通义千问

Olamma支持几乎市面上所有的开源大模型,这里就不完全列名了。Olamma支持大模型列表: https://ollama.com/library

Model Parameters Size Download
Llama 2 7B 3.8GB ollama run llama2
Mistral 7B 4.1GB ollama run mistral
Dolphin Phi 2.7B 1.6GB ollama run dolphin-phi
Phi-2 2.7B 1.7GB ollama run phi
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
Llama 2 13B 13B 7.3GB ollama run llama2:13b
Llama 2 70B 70B 39GB ollama run llama2:70b
Orca Mini 3B 1.9GB ollama run orca-mini
Vicuna 7B 3.8GB ollama run vicuna
LLaVA 7B 4.5GB ollama run llava
Gemma 2B 1.4GB ollama run gemma:2b
Gemma 7B 4.8GB ollama run gemma:7b

如果想先测试一下,可以试试咱们国产大模型通义千问的0.5B版本,2G内存就能跑起来

简介: https://ollama.com/library/qwen

Qwen是阿里云推出的一系列基于Transformer的大型语言模型,在大量数据上进行预训练,包括网络文本、书籍、代码等。

  • 人类对聊天模型的偏好显着提高性能
  • 基础模型和聊天模型的多语言支持
  • 稳定支持所有尺寸模型的32K上下文长度

它有 6 种型号尺寸,包括 0.5B、1.8B、4B(默认)、7B、14B 和 72B - ollama run qwen:0.5b - ollama run qwen:1.8b - ollama run qwen:4b - ollama run qwen:7b - ollama run qwen:14b - ollama run qwen:72b

其他特性:

  • 低成本部署 :推理最低内存需求小于2GB。






请到「今天看啥」查看全文