专栏名称: i小声读书
「电子书支援计划」是一个以电子书为核心的自我学习计划, 以 Telagram 社群为主要载体,致力于促进中文互联网圈内 的知识交流和资源共享,帮助诸位获得更好的阅读资源和阅 读体验,同时鼓励社群内成员输出优质内容。
目录
相关文章推荐
青岛日报  ·  张学友,传来好消息! ·  12 小时前  
青岛日报  ·  张学友,传来好消息! ·  12 小时前  
苍梧晚报  ·  胡歌,突发新消息! ·  昨天  
苍梧晚报  ·  胡歌,突发新消息! ·  昨天  
FM1007福建交通广播  ·  差点成影帝!章子怡提问杨子《再见爱人》是演的 ... ·  3 天前  
FM1007福建交通广播  ·  差点成影帝!章子怡提问杨子《再见爱人》是演的 ... ·  3 天前  
51好读  ›  专栏  ›  i小声读书

一分钟上手本地运行 DeepSeek

i小声读书  · 公众号  ·  · 2025-01-27 11:50

正文

◎ 题图:我截的图 🤡

不少读者看了使用 DeepSeek-R1 模型生成的散文 电鸡与土狗 》,在后台询问我如何在本地把这个模型跑起来,这就写一下,过程只需要 5 分钟。

第一步
浏览器打开这个网站 👇
https://ollama.com
看介绍,使用 ollama 可以在 macOS、Linux、Windows 上运行 LLama3.3、Phi-4 等开源大语言模型,当然,它也支持 DeepSeek- R1 模型!👨🏻‍💻
第二步
下载安装 ollama,并在终端中执行以下 指令 👇
ollama run DeepSeek-R1
随后,系统会开始拉取 DeepSeek- R1 开源模型的资源,等待下载完成。✅
第三步
在终端里面提出你的问题,本地运行的 DeepSeek- R1 模型就会开始回答你的问题。响应速度很快。
我向它提出问题「如何评价 OpenAI?」它的回答如下:
当然了,还有很多其他的玩法可以解锁,例如本地 API 用于翻译之类的。






请到「今天看啥」查看全文