一、引言
函数计算 FC 是一款免运维、高效开发的云服务工具,支持快速部署与弹性扩容,开发者可以通过简单的配置和代码上传,迅速上线新功能或修复问题,大大缩短了开发周期,让开发者专注于业务逻辑而无需担忧底层基础设施。
Qwen2.5 是阿里云推出的最新一代开源大模型,支持高达128K的上下文长度,覆盖92种编程语言,显著提升了代码生成和优化的能力。通过阿里云函数计算 FC提供的免运维的高效开发环境,Qwen2.5 可以快速部署和更新,无需考虑底层资源管理和运维问题,只专注于应用的创新和开发。
将Qwen2.5开源模型部署到函数计算 FC,还需要借助Ollama 和 Open WebUI 两个应用。Ollama 负责托管 Qwen2.5 模型,其中预置了 1.5B 参数规模的 Qwen2.5 模型,支持模型推理任务;Open WebUI 则为用户提供友好的交互界面,支持用户轻松调用和交互,实现高效的模型使用体验。
云端部署 Qwen2.5 模型核心优势:
-
提供更高的灵活性:可根据用户自身业务需求灵活调整云服务资源配置,实现对高并发请求的有效支持。
-
通过资源配置优化显著提升推理速度:可以通过调整实例规格、多 GPU 分布式部署、实施模型量化等措施提升推理速度。
-
按业务量选择计费方式:计费方式灵活多样(包年包月、按量付费),在面对高频请求和大规模数据处理时,能够显著降低综合成本。
-
避免数据泄露风险:企业可以实现对自身业务数据的完全控制,确保敏感信息的安全存储和处理。
本文将详细介绍如何利用函数计算 FC 部署 Qwen2.5 开源模型的流程。点击文末“阅读原文”,了解更多方案详情,开发更高效,智能更贴近。
二、操作教程
(一)整体架构
(二)基于 Ollama 部署 Qwen2.5 模型
将部署Ollama应用以提供模型服务。Ollama 是一个便捷的模型部署和管理工具,帮助开发者高效托管和服务化模型,便于快速集成 AI 能力。
https://fcnext.console.aliyun.com/applications/create,访问创建 Ollama应用页面。
2. 当前应用模板提供了Qwen2.5:1.5B模型。
-
其余配置项可不作修改,点击 创建并部署默认环境按钮部署应用 ,应用部署成功后如下图所示。
(三)使用 Open WebUI 调用 Qwen2.5 模型
Open WebUI 是一个开源项目,提供了管理和操作模型的图形界面。
-
点 击 Open WebUI模板链接 [1],访问创建Open WebUI 应用页面。
-
在高级配置 > 地域下拉列表中选择应用所属地域。注意所选地域与Ollama应用创建时所选的地域一致。
-
应用模板中提供了开启鉴权的选项,建议在生产环境开启,以增加安全性,防止未经授权的访问。
-
Ollama接口地址填入Ollama应用的内网访问地址。
说明
Ollama应用内网访问地址获取方式:
打开 函数计算 FC应用 [2]页面,找到Ollama应用,点击应用名 称进入应用详情。
在应用详情页找到函数资源,点击函数名称进入函数详情页。
鼠标移至HTTP 触发器,在展开的信息中复制内网访问地址。
5.其余配置项可不作修改,点击 创建并部署默认环境按钮部署应 用,应用部署成功后如下图所示。
三、应用体验
(一)使用 Open WebUI 调用 Qwen2.5 模型
-
登录Open WebUI后,点击Select a model,在展开的下拉列表中选择Qwen2.5模型。如果在下拉列表中未显示可用的模型,请尝试刷新页面以更新列表。
说明:首次部署需要等待约5分钟,不断刷新会导致实例反复调用,为避免消耗更多资源请不要反复刷新。
-
可以在对话框中与系统进行交互,调用模型服务获得相应的响应。
-
Qwen2.5 模型具备支持超过 29 种语言的能力,例如能够用法语进行自我介绍。
-
由于融入了领域专业专家模型,Qwen2.5 的知识广度和在编码与数学领域的能力都显著提升。我们可以提出一道数学题,Qwen2.5 能够给出正确的解答。
-
点击 图标,选择本地文档上传,可以使用我们提供的