虽然昨天已经教会了大家如何在DeepSeek官网陷入繁忙时切换备胎,但依旧还有很多人想着把这玩意部署到本地,我是看到一个就劝一个...
毕竟这玩意真没必要自己部署啊,满血版咱玩不起,残血版没那么给力,那么为什么还想着自己部署呢?
本来最近网上各种教程也挺多,我原本没打算写教程,直到我看到很多人拿这个教程来卖钱,并且销量还真不少...
那我可就坐不住了,既然是你情我愿的事,那么咱能帮一个是一个,跟着我的操作来,无论你是多新的新手,都能部署成功
最后再BB一句,
如果你只想体验满血版,我建议你还是别自己部署了,如果不介意使用“阉割版”,并且愿意花时间折腾,那么请认真往下看。
先给大家提个醒,
以下教程并不局限于DeepSeek这一家的模型
,很多开源模型都可以通过这套流程来本地部署。
下面咱以部署DeepSeek-R1模型为例,带大家完整的过一遍。
这里给大家解释一下,Ollama是一个开源框架,有了它,你就可以在本地跑大模型,至于其它的就别管了,知道这一点就够了。
进入
Ollama官网,选择合适的版本下载即可
(速度较慢,魔法更快)
。
下完点击安装,安装成功会弹出一个命令行界面,Ollama本身是没有可视化界面的,但并不影响后续使用,毕竟它只是一个框架。
首访问下方链接,选择要下载的模型,并在右侧复制对应的命令,由于公司的网比较慢,所以这里我就选了个最小的1.5b版本作为演示。
https://ollama.com/library/deepseek-r1
这里阿枫给大家整理了个表格,可能不是很严谨,勉强做个参考。
以1.5b版本为例,复制命令后粘贴到命令行中运行即可下载,速度取决于你的网速。
1.5b下载命令:ollama run deepseek-r1:1.5b
如果下载完成后报错,就再运行一遍下载命令,提示“success”就代表下载完成了。
然后在命令行里输入“
ollama list
”来查看下载成功的模型,下图这种情况就代表一切准备就绪了。
接着在命令行里输入「
ollama run deepseek-r1:1.5b+问题
」即可进行AI对话,如果你下的是7b模型,那么就是输入
「
ollama run deepseek-r1:7b+问题
」,以此类推。
显然,通过命令行对话有点太Low了,所以咱们还得借助一个第三方AI客户端来调用本地模型,让体验更上一层楼。
昨天文章有给大家介绍一款名为「Cherry Studio」开源的AI客户端,还没看的可以去看看昨天文章,这里就不多BB了,直接放上下载地址。
官网下载(Win+Mac+Linux):
https://cherry-ai.com/download
Windows端下载:
https://fy6b.lanzouq.com/i8wDR2mw2w5g
下载后打开客户端,进入设置,选择「
Ollama
」,API地址会自动填写,需要与下图中的地址保持一致,然后点击“
管理
”。
在弹出的窗口中可以看到自己本地的模型,点击右侧的按钮添加模型即可。