春节前 DS 响应非常丝滑流畅。随着春节期间 DS 火爆全球用户暴增后,就开始频繁出现“服务器繁忙”。
后来国内很多大厂和平台也接入了 DeepSeek-R1 模型。很多平台,超过免费额度后,基本都是就要氪金付费了。
有一天晚上八九点,我分时段反复试了多次尝试某国家队平台,但每次都显示:“资源正在申请中,请您耐心等待”。后来第二天凌晨 2:30 左右才收到资源通过的短信。( ̄. ̄)
问题来了:
有没有免费又简单的方法使用 DeepSeek 呢?
答案是肯定的,那就是本地部署模型。
本地部署的好处和缺点
好处和缺点不止上面这几点,本文不展开细讲。你直接问 DS 也能得到答案。
DeepSeek-R1 各版本的特点及适用场景
DS-R1 有多个版本,它们的特点和适用场景请直接看下方表格:
本文将主要关注轻量级模型,这也是适用于我们大多数个人用户的部署方式。
如何本地部署?
部署方法其实有很多,本文介绍基于 Ollama 实现本地部署。
Ollama 是一个支持在本地运行大型语言模型的工具,能够帮助用户快速部署和管理模型。
1、安装 Ollama
从 Ollama 官网下载:https://ollama.com/download ,选择对应的版本下载并安装。
安装成功后桌面就有 Ollama 的羊驼标志。
2、部署 DeepSeek R1 模型
Ollama 官网支持多种 DeepSeek-R1 版本,可以在 https://ollama.com/search
看到 1.5B 到 671B 共 7 个不同规模的共 29 个不同版本,其中包括一些基于开源模型 Llama 和 Qwen 进行微调、蒸馏或量化处理后得到的模型。
DeepSeek-R1 1.5B 版本对硬件配置要求最低,本文就以它为例。
双击羊驼启动 Ollama,然后打开终端工具,复制粘贴运行下方命令:
ollama run deepseek-r1:1.5
成功后会显示 success,我尝试问了它是谁。我再问了它“如何学习编程”,也是给了八点建议。
如果你是技术流用户,到这一步就已经算是成功部署 DeepSeek R1 模型啦。
但对普通用户来说,命令行不友好,还需要配置一个好用的前端,本文选用 Chatbox。
3、安装 Chatbox
Chatbox 是一款开源的 AI 客户端,旨在为用户提供便捷的本地化 AI 对话体验。它支持多种大型语言模型(LLMs),包括 OpenAI 的 GPT 系列、本地部署的模型(如 LLaMA、DeepSeek 等),并提供了一个直观的图形界面,方便用户与 AI 模型交互。
打开 Chatbox 官网(https://chatboxai.app/zh )下载安装。
安装后打开客户端,从左下角点击“设置”,
保存设置后,我们就可以在聊天窗口中和 DS 聊天了。
如果你有多个本地模型,还可以随时切换。
到这里为止,我们就顺利地在本地部署 DeepSeek。✿✿ヽ(°▽°)ノ✿
后记
我在两台电脑上跑了模型。
ds-r1 1.5B 和 14B 的对比