本文介绍了由于DeepSeek热度过高导致的使用问题,以及通过开源工具Ollama在本地安装DeepSeek的解决方法。Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的开源框架,支持多种操作系统和大型语言模型。
许多用户反映DeepSeek现在使用起来非常卡顿,且体验感不佳。此外,API充值已经暂停,导致许多用户无法正常使用。
Ollama提供了一个在本地机器上便捷部署和运行大型语言模型的解决方案。它支持多种操作系统,包括macOS、Windows、Linux,并且可以通过Docker容器运行。
用户可以根据自己的需求选择合适的模型进行本地运行。此外,Ollama还提供对模型量化的支持,可以显著降低显存要求,使得在普通家用计算机上运行大型模型成为可能。
用户可以在Ollama官网下载对应系统的安装包进行安装。安装完成后,可以通过命令提示符或PowerShell验证安装是否成功。使用Ollama运行模型时,可以使用"ollama run"命令。此外,Ollama还提供了一个REST API用于运行和管理模型。
DeepSeek 现在热度实在是太高,导致现在使用起来非常卡顿,体验感不好,一直回复稍后再试~
体验感这么差,不得整个本地的,今天我们就介绍使用开源的工具 Ollama 本地安装 DeepSeek,Ollama 是一个开源的本地大语言模型运行框架,目前在 Github 上斩获了 121k+ 的 Star:
Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。
Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。
Ollama 提供对模型量化的支持,可以显著降低显存要求,使得在普通家用计算机上运行大型模型成为可能。
Ollama 支持多种流行的大型语言模型,包括但不限于 DeepSeek、
qwen、codegeex4、phi4、llama 等,我们可以根据自己的需求选择合适的模型进行本地运行。
Ollama 官方地址:https://ollama.com/
Github 开源地址:https://github.com/ollama/ollama
Ollama 入门教程:https://www.runoob.com/ollama/ollama-tutorial.html
Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。
Ollama 安装很简单,直接在官网 https://ollama.com/download 下载对应系统的安装包即可:
验证安装
打开命令提示符或 PowerShell,输入以下命令验证安装是否成功:
Ollama 运行模型使用
ollama run
命令。
例如我们要运行 deepseek-coder 并与该模型对话可以使用以下命令:
ollama run deepseek-coder
安装过程有个问题,刚开始下载还挺快,后面如果速度变慢,可以直接
ctrl+d
断开,然后重新执行以上命令速度又变快了。
>>> /?
Available Commands:
/set Set session variables
/show Show model information
/load Load a session or model
/save Save your current session
/clear Clear session context
/bye Exit
/?, /help Help for a command
/? shortcuts Help for