新手如何一键部署 DeepSeek
自从DeepSeek火爆全网之后,我们在官网使用时,经常会遇到服务失败的情况。
另一方面,由于DeepSeek是开源的,也有人想本地化部署尝试一下。
但是开源不等于免费,本地化部署,一方面面临硬件限制,个人电脑的性能再强,也很难部署较高版本的DeepSeek,另一方面,开源软件一般来说没有售后,个人电脑部署会面临非常多的障碍。
举个例子,个人电脑绝大部分都是Windows系统,想要部署DeepSeek,一般需要使用WSL2的Linux环境,而安装WSL2又对Windows的系统版本有要求,坑很多
本地部署DeepSeek往往起步即失败,对新手非常不友好。
其实对于个人部署DeepSeek,最方便的方式使用云服务器。本文我们来介绍如何使用腾讯云的Cloud Studio来部署。
腾讯云是专业的云服务器提供商,而腾讯云推出的 Cloud Studio,相当于在服务器机器之上提供了开发环境,开发模板,主流模型等,可以理解成一个预装了IDE和开发环境的云服务器。
尤其是现在 Cloud Studio 预装了DeepSeek 不同模型版本的镜像,可以一键部署,非常方便。
首先,我们登录 Cloud Studio 的主页:https://ide.cloud.tencent.com
注册登录后,进行身份认证。然后点击左侧的高性能工作空间,可以看到DeepSeek的模型创建入口。
我们点击DeepSeek模型下方的立即创建,点开后,会选择空间规格,上面四个是CPU空间,下面两个是GPU空间,如果我们单纯为了体验的话,选上面的就可以,后续如果打算自己进行模型微调,可以考虑下面的GPU空间。
从界面说明上可以看到,现在针对DeepSeek模型,是有免费时长的,我们选择 14B,点击下一步
大概等十几秒钟,可以看到,DeepSeek已经部署好了
我们来看看怎么用,Cloud Studio 一共提供了四种使用方式:
通过 Open WebUI 快速体验
我们打开 8080 端口,注册管理员账号,即可使用
通过 AnythingLLM 管理知识库并对话
可以看到,右上方默认启动了 AngthingLLM,AngthingLLM 是一个开源的知识库RAG管理工具,我们此处不做详述
通过命令行调用模型
我们给一段指令
curl -X POST http://localhost:8434/api/generate \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-r1:14b",
"prompt": "写一篇题为我终于长大了的小学生作文(200字)",
"stream": false
}'
等待一会儿,就可以看到文章写好了
Ollama 原生命令进阶使用
一句
ollama run deepseek-r1:14b
就可以
真的是一键部署