专栏名称: 阿里开发者
阿里巴巴官方技术号,关于阿里的技术创新均将呈现于此
目录
相关文章推荐
阿里开发者  ·  一文详解架构设计的本质 ·  昨天  
阿里开发者  ·  链路诊断最佳实践:1 分钟定位错慢根因 ·  2 天前  
阿里开发者  ·  10分钟轻松实现人脸精准识别 ·  4 天前  
51好读  ›  专栏  ›  阿里开发者

摊牌了,代码不是我自己写的

阿里开发者  · 公众号  · 科技公司  · 2024-12-31 08:30

正文

一、引言

函数计算 FC 是一款免运维、高效开发的云服务工具,支持快速部署与弹性扩容,开发者可以通过简单的配置和代码上传,迅速上线新功能或修复问题,大大缩短了开发周期,让开发者专注于业务逻辑而无需担忧底层基础设施。

Qwen2.5 是阿里云推出的最新一代开源大模型,支持高达128K的上下文长度,覆盖92种编程语言,显著提升了代码生成和优化的能力。通过阿里云函数计算 FC提供的免运维的高效开发环境,Qwen2.5 可以快速部署和更新,无需考虑底层资源管理和运维问题,只专注于应用的创新和开发。

将Qwen2.5开源模型部署到函数计算 FC,还需要借助Ollama 和 Open WebUI 两个应用。Ollama 负责托管 Qwen2.5 模型,其中预置了 1.5B 参数规模的 Qwen2.5 模型,支持模型推理任务;Open WebUI 则为用户提供友好的交互界面,支持用户轻松调用和交互,实现高效的模型使用体验。

云端部署 Qwen2.5 模型核心优势:

  • 提供更高的灵活性:可根据用户自身业务需求灵活调整云服务资源配置,实现对高并发请求的有效支持。

  • 通过资源配置优化显著提升推理速度:可以通过调整实例规格、多 GPU 分布式部署、实施模型量化等措施提升推理速度。

  • 按业务量选择计费方式:计费方式灵活多样(包年包月、按量付费),在面对高频请求和大规模数据处理时,能够显著降低综合成本。

  • 避免数据泄露风险:企业可以实现对自身业务数据的完全控制,确保敏感信息的安全存储和处理。

本文将详细介绍如何利用函数计算 FC 部署 Qwen2.5 开源模型的流程。点击文末“阅读原文”,了解更多方案详情,开发更高效,智能更贴近。

二、操作教程

(一)整体架构

(二)基于 Ollama 部署 Qwen2.5 模型

将部署Ollama应用以提供模型服务。Ollama 是一个便捷的模型部署和管理工具,帮助开发者高效托管和服务化模型,便于快速集成 AI 能力。

1. 点击Ollama模板链接:

https://fcnext.console.aliyun.com/applications/create,访问创建Ollama应用页面。

2. 当前应用模板提供了Qwen2.5:1.5B模型。

  1. 其余配置项可不作修改,点击创建并部署默认环境按钮部署应用,应用部署成功后如下图所示。

(三)使用 Open WebUI 调用 Qwen2.5 模型

Open WebUI 是一个开源项目,提供了管理和操作模型的图形界面。

  1. Open WebUI模板链接[1],访问创建Open WebUI应用页面。

  2. 在高级配置 > 地域下拉列表中选择应用所属地域。注意所选地域与Ollama应用创建时所选的地域一致。

  1. 应用模板中提供了开启鉴权的选项,建议在生产环境开启,以增加安全性,防止未经授权的访问。

  1. Ollama接口地址填入Ollama应用的内网访问地址。

说明 

Ollama应用内网访问地址获取方式:

打开函数计算 FC应用[2]页面,找到Ollama应用,点击应用名称进入应用详情。

在应用详情页找到函数资源,点击函数名称进入函数详情页。

鼠标移至HTTP 触发器,在展开的信息中复制内网访问地址。

5.其余配置项可不作修改,点击创建并部署默认环境按钮部署应用,应用部署成功后如下图所示。

6.Open WebUI应用部署完毕后,点击访问域名。

三、应用体验

(一)使用 Open WebUI 调用 Qwen2.5 模型

  1. 登录Open WebUI后,点击Select a model,在展开的下拉列表中选择Qwen2.5模型。如果在下拉列表中未显示可用的模型,请尝试刷新页面以更新列表。

说明:首次部署需要等待约5分钟,不断刷新会导致实例反复调用,为避免消耗更多资源请不要反复刷新。

  1. 可以在对话框中与系统进行交互,调用模型服务获得相应的响应。

  1. Qwen2.5 模型具备支持超过 29 种语言的能力,例如能够用法语进行自我介绍。

  1. 由于融入了领域专业专家模型,Qwen2.5 的知识广度和在编码与数学领域的能力都显著提升。我们可以提出一道数学题,Qwen2.5 能够给出正确的解答。

  1. 点击图标,选择本地文档上传,可以使用我们提供的“百炼”手机详细参数.docx[3]。

  1. 针对当前文档撰写提示词“总结文档内容”。

  1. 可以看到Qwen2.5模型成功提炼出了文档的关键信息。

关于代码编写的结果,可以亲自去验证一下哦😄

(二)函数计算 FC 自动扩缩容机制

  1. 回到 Ollama 函数详情页,点击实例标签,如果当前实例列表为空,可以点击图标刷新列表。

  1. 实例列表中可以看到 Ollama 函数实例的数量发生了变化。这是因为函数计算 FC 会根据函数调用量自动扩缩容,调用增加时创建实例,请求减少后若实例空闲超过一定时间(通常3-5分钟),则自动销毁以节约资源。这种动态扩缩容的机制不仅提高了资源利用率,还降低了运行成本,使开发者能够专注于业务逻辑,而无需担心底层基础设施的管理。

点击阅读原文,体验使用 Open WebUI 调用 Qwen2.5 模型,新年礼物,先到先得~

参考链接:

[1]https://fcnext.console.aliyun.com/applications/create?template=fc-open-webui&deployType=template-direct

[2]https://fcnext.console.aliyun.com/applications

[3]https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20240701/geijms/%E7%99%BE%E7%82%BC%E7%B3%BB%E5%88%97%E6%89%8B%E6%9C%BA%E4%BA%A7%E5%93%81%E4%BB%8B%E7%BB%8D.docx