专栏名称: 天池大数据科研平台
天池,基于阿里云的开放数据处理服务ODPS,面向学术界开放海量数据和分布式计算资源,旨在打造“数据众智、众创”第一平台。在这里,人人都可以玩转大数据,共同探索数据众创新模式。
目录
相关文章推荐
数据派THU  ·  独家|人工智能值得信任吗(附链接) ·  2 天前  
数据派THU  ·  Coconut:基于连续潜在空间推理,提升大 ... ·  3 天前  
数据派THU  ·  10 ... ·  5 天前  
51好读  ›  专栏  ›  天池大数据科研平台

3步,0代码!一键部署DeepSeek-V3、DeepSeek-R1

天池大数据科研平台  · 公众号  · 大数据  · 2025-02-03 18:22

正文


春节期间,DeepSeek热度居高不下,开发者们对其相关系列模型的部署尤为关注。天池团队手把手带你在阿里云上一键部署DeepSeek-R1系列模型!

阿里云PAI Model Gallery功能强大,支持云上一键部署DeepSeek-V3、DeepSeek-R1。


在该平台上用户可以零代码实现从训练到部署再到推理的全过程,简化模型开发流程,为开发者和企业用户带来了更快、更高效、更便捷的AI开发和应用体验。


01

DeepSeek-V3、R1系列模型
DeepSeek-V3 是 DeepSeek 发布的 MoE(Mixture-of-Experts)大语言模型,总参数量为671B,每个 token 激活的参数量为37B。为了实现高效的推理和成本效益的训练,DeepSeek-V3 采用了 MLA(Multi-head Latent Attention)和 DeepSeekMoE 架构。此外,DeepSeek-V3 首次引入了一种无需辅助损失的负载均衡策略,并设定了多 token 预测的训练目标,以提升性能。DeepSeek-V3 在14.8万亿个多样且高质量的 token 上对模型进行了预训练,随后通过监督微调(SFT)和强化学习来充分发挥其潜力。
DeepSeek-R1 是 DeepSeek 发布的高性能 AI 推理模型,在后训练阶段大规模使用强化学习技术,显著提升了模型的推理能力,在数学、代码、自然语言推理等任务上,其性能与 OpenAI 的 o1 正式版相当。
DeepSeek-R1 具有660B的参数量,DeepSeek 开源 660B 模型的同时,通过模型蒸馏,微调了若干参数量较小的开源模型,其中包括:

模型

基础模型

DeepSeek-R1-Distill-Qwen-1.5B

Qwen2.5-Math-1.5B

DeepSeek-R1-Distill-Qwen-7B

Qwen2.5-Math-7B

DeepSeek-R1-Distill-Llama-8B

Llama-3.1-8B

DeepSeek-R1-Distill-Qwen-14B

Qwen2.5-14B

DeepSeek-R1-Distill-Qwen-32B

Qwen2.5-32B

DeepSeek-R1-Distill-Llama-70B

Llama-3.3-70B-Instruct

目前 PAI Model Gallery 已经支持 DeepSeek-V3、DeepSeek-R1 以及所有蒸馏小参数模型(DeepSeek-R1-Distill)的一键部署。

02

PAI Model Gallery 简介
Model Gallery 是阿里云人工智能平台 PAI 的产品组件,它集成了国内外 AI 开源社区中优质的预训练模型,涵盖了 LLM、AIGC、CV、NLP 等各个领域,如Qwen,DeepSeek等系列模型。通过 PAI 对这些模型的适配,用户可以零代码实现从训练到部署再到推理的全过程,简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的 AI 开发和应用体验。
PAI Model Gallery 访问地址:https://pai.console.aliyun.com/#/quick-start/models

03

PAI Model Gallery 一键部署 Deep Seek-V3、Deep Seek-R1
1. 进入 Model Gallery 页面(链接:https://pai.console.aliyun.com/#/quick-start/models
    1. 登录 PAI 控制台。
    2. 在顶部左上角根据实际情况选择地域。
    3. 在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间内。
    4. 在左侧导航栏选择快速开始 > Model Gallery。
  1. 在 Model Gallery 页面的模型列表中,单击找到并点击需要部署的模型卡片,例如“DeepSeek-R1-Distill-Qwen-7B”模型,进入模型详情页面。
  1. 单击右上角部署:目前 DeepSeek-R1 支持采用 vLLM 加速部署;DeepSeek-V3 支持 vLLM 加速部署以及 Web 应用部署;DeepSeek-R1 蒸馏小模型支持采用 BladeLLM(阿里云 PAI 自研高性能推理框架)和 vLLM 加速部署。选择部署方式和部署资源后,即可一键部署服务,生成一个 PAI-EAS 服务。
  1. 使用推理服务。部署成功后,在服务页面可以点击“查看调用信息”获取调用的 Endpoint 和 Token,想了解服务调用方式可以点击预训练模型链接,返回模型介绍页查看调用方式说明。

欢迎各位开发者持续关注和使用 PAI-Model Gallery,Model Gallery 会不断上线 SOTA 模型。如果您有任何模型需求,欢迎您联系我们。您可通过钉钉扫描下方二维码(或搜索钉钉群号79680024618),加入PAI-Model Gallery用户交流群。

 

点击阅读原文快速访问 PAI-Model Gallery