专栏名称: 阿枫科技
🌏科技如果有颜色,那么一定是黑色...
目录
相关文章推荐
人民网舆情数据中心  ·  巴中人社局工作人员电话辱骂办事群众,舆情化解 ... ·  22 小时前  
人民网舆情数据中心  ·  “闪送”骑手被索赔一万五 事件背后的舆论关注分析 ·  2 天前  
51好读  ›  专栏  ›  阿枫科技

想在本地部署DeepSeek-R1?保姆级教程来了!

阿枫科技  · 公众号  ·  · 2025-02-07 17:25

正文

昨天的文章给大家深入讲解了如何「 通过硅基流动白嫖DeepSeek-R1满血版 」,里面有教大家如何通过第三方AI工具客户端调用R1模型,没看的可以去瞅瞅。
虽然昨天已经教会了大家如何在DeepSeek官网陷入繁忙时切换备胎,但依旧还有很多人想着把这玩意部署到本地,我是看到一个就劝一个...
毕竟这玩意真没必要自己部署啊,满血版咱玩不起,残血版没那么给力,那么为什么还想着自己部署呢?
这个回答,我无力反驳。
本来最近网上各种教程也挺多,我原本没打算写教程,直到我看到很多人拿这个教程来卖钱,并且销量还真不少...
那我可就坐不住了,既然是你情我愿的事,那么咱能帮一个是一个,跟着我的操作来,无论你是多新的新手,都能部署成功
最后再BB一句, 如果你只想体验满血版,我建议你还是别自己部署了,如果不介意使用“阉割版”,并且愿意花时间折腾,那么请认真往下看。

使用Ollama本地部署大模型(通用)


先给大家提个醒, 以下教程并不局限于DeepSeek这一家的模型 ,很多开源模型都可以通过这套流程来本地部署。
下面咱以部署DeepSeek-R1模型为例,带大家完整的过一遍。
本地安装Ollama
这里给大家解释一下,Ollama是一个开源框架,有了它,你就可以在本地跑大模型,至于其它的就别管了,知道这一点就够了。
进入 Ollama官网,选择合适的版本下载即可 (速度较慢,魔法更快)
官网: https://ollama.com/
下完点击安装,安装成功会弹出一个命令行界面,Ollama本身是没有可视化界面的,但并不影响后续使用,毕竟它只是一个框架。
完成上述步骤后,底子就打好了。
下载DeepSeek-R1模型
首访问下方链接,选择要下载的模型,并在右侧复制对应的命令,由于公司的网比较慢,所以这里我就选了个最小的1.5b版本作为演示。
https://ollama.com/library/deepseek-r1

那么问题来了, 怎么选择合适的版本?
这里阿枫给大家整理了个表格,可能不是很严谨,勉强做个参考。

以1.5b版本为例,复制命令后粘贴到命令行中运行即可下载,速度取决于你的网速。
1.5b下载命令:ollama run deepseek-r1:1.5b
如果下载完成后报错,就再运行一遍下载命令,提示“success”就代表下载完成了。
然后在命令行里输入“ ollama list ”来查看下载成功的模型,下图这种情况就代表一切准备就绪了。
接着在命令行里输入「 ollama run deepseek-r1:1.5b+问题 」即可进行AI对话,如果你下的是7b模型,那么就是输入 ollama run deepseek-r1:7b+问题 」,以此类推。
显然,通过命令行对话有点太Low了,所以咱们还得借助一个第三方AI客户端来调用本地模型,让体验更上一层楼。
通过Cherry Studio调用模型
昨天文章有给大家介绍一款名为「Cherry Studio」开源的AI客户端,还没看的可以去看看昨天文章,这里就不多BB了,直接放上下载地址。

官网下载(Win+Mac+Linux):

https://cherry-ai.com/download

Windows端下载:

https://fy6b.lanzouq.com/i8wDR2mw2w5g
下载后打开客户端,进入设置,选择「 Ollama 」,API地址会自动填写,需要与下图中的地址保持一致,然后点击“ 管理 ”。
在弹出的窗口中可以看到自己本地的模型,点击右侧的按钮添加模型即可。






请到「今天看啥」查看全文