专栏名称: 阿里开发者
阿里巴巴官方技术号,关于阿里的技术创新均将呈现于此
目录
相关文章推荐
阿里开发者  ·  两种方式一键部署,快速体验QWQ-32B 模型 ·  23 小时前  
小强热线浙江教科  ·  太突然!双双宣告停产 ·  2 天前  
小强热线浙江教科  ·  太突然!双双宣告停产 ·  2 天前  
白鲸出海  ·  中国互联网出海一周头条 ... ·  2 天前  
51好读  ›  专栏  ›  阿里开发者

两种方式一键部署,快速体验QWQ-32B 模型

阿里开发者  · 公众号  · 科技公司  · 2025-03-11 18:00

主要观点总结

本文介绍了QwQ-32B推理模型的发布和开源,该模型凭借卓越性能和广泛应用场景获得全球关注。通过使用阿里云函数计算FC和基于Serverless+AI的云原生应用开发平台CAP,提供了两种部署方式:应用模板部署和模型服务部署。文章还详细描述了这两种部署方式的具体步骤,并提供了关于计费、授权和删除项目的相关信息。

关键观点总结

关键观点1: 模型性能卓越,获得全球关注。

QwQ-32B推理模型经过一系列基准测试评估,包括数学推理、编程和通用能力,性能比肩甚至超越其他领先模型,如DeepSeek-R1-Distilled-Qwen-32B等。

关键观点2: 应用模板部署方式介绍。

用户可以通过基于模板创建项目的方式部署QwQ-32B模型。具体步骤包括创建项目、部署模板、验证应用等。部署过程大约持续10分钟,用户可以根据需要选择地域。

关键观点3: 模型服务部署方式介绍。

用户可以通过模型服务部署的方式使用API进行模型调用,接入线上业务应用。具体步骤包括创建项目、选择模型服务、部署模型服务、验证模型服务等。删除项目也可以通过一系列步骤进行。


正文

QwQ-32B 推理模型正式发布并开源,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度。

基于阿里云函数计算 FC提供算力,Serverless+ AI 云原生应用开发平台 CAP现已提供 模型服务、应用模板 两种部署方式辅助您部署QwQ 32B系列模型。您选择一键部署应用模板与模型进行对话或以API形式调用模型,接入AI应用中。欢迎您立即体验QwQ-32B。

QwQ-32B 更小尺寸

性能比肩全球最强开源推理模型

QwQ-32B 在一系列基准测试中进行了评估,包括数学推理、编程和通用能力。以下结果展示了 QwQ-32B 与其他领先模型的性能对比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B 、OpenAI-o1-mini以及原始的DeepSeek-R1-671B。

在测试数学能力的AIME24评测集上,以及评估代码能力的LiveCodeBench中,千问QwQ-32B表现与DeepSeek-R1-671B相当,远胜于OpenAI-o1-mini及相同尺寸的R1蒸馏模型。在由Meta首席科学家杨立昆领衔的“最难LLMs评测榜” LiveBench、谷歌等提出的指令遵循能力IFEval评测集、由加州大学伯克利分校等提出的评估准确调用函数或工具方面的BFCL测试中,千问QwQ-32B的得分均超越了DeepSeek-R1-671B。

前置准备

1. 首 次使用 云原生应用开发平台 CAP [1]会自动跳转到访问控制 快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。

2. 本教程在函数计算中创建的GPU函数,函数运行使用的资源按照函数规格乘以执行时长进行计量,如果无请求调用,则只收取闲置预留模式下预置的快照费用,CAP中的极速模式通过预置实例快照实现毫秒级响应,其技术原理对应函数计算的闲置预留模式,适用于需要快速冷启动的场景。建议您 领取函数计算的 试用额度 [2]抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见 计费概述 [3]。

方式一:应用模板部署


1. 创建项目

进入 CAP控制台 [4]单击 基于模板 创建 开始创建。

image


2. 部署模板

  1. 在搜索栏输入 QWQ 进行搜索,单击基于 Qwen-QwQ 推理模型构建AI聊天助手,进入模板详情页,单击立即部署。

    image

    image

  2. 选择 地域 ,目前支持 北京、上海、杭州,单击 部署项目 ,在 项目资源预览 对话框中,您可以看到相关的计费项,详情 请见 计费涉及的产品 [5]。单击 确认部署,部署过程大约持续 10 分钟左右,状态显示 已部署 表示部署成功。

说明:
  • 选择地域时,一般是就近选择地域信息,如果已经开启了NAS文件系统,选择手动配置模型存储时,请选择和文件系统相同的地域。

  • 如果您在测试调用的过程中遇到部署异常或模型拉取失败,可能是当前地域的GPU显卡资源不足,建议您更换地域进行重试。

image

image


3. 验证应用

部署完毕后,点击 Open-WebUI 服务,在 访问地址 内找到 公网访问 单击访问。在OpenWebUI界面体验QwQ模型进行对话。

image

方式二:模型服务部署

使用API形式进行模型调用,接入线上业务应用。


1. 创建空白项目

进入 CAP控制台 [6]单击 创建空 白项目 开始创建,并为项目命名。

image

image


2. 选择模型服务

image


3. 部署模型服务

  1. 选择模型QwQ-32B-GGUF,目前仅支持杭州地域。

    image

  2. 单击 资源配置 ,QwQ-32B-GGUF推荐使用 Ada 系列,可直接使用默认配置。您可以根据业务诉求填写需要的卡型及规格信息。

    image

  3. 单击 预览并部署,在服务资源预览 对话框中,您可以看到相关的计费项,详情请 计费涉及的产品 [7]。单击 确认部署 ,该阶段需下载模型,预计等待10~30分钟即可完成。

    image

    image


4. 验证模型服务

单击 调试 ,即可测试和验证相关模型调用。

image

image







请到「今天看啥」查看全文