专栏名称: OSC开源社区
OSChina 开源中国 官方微信账号
目录
相关文章推荐
程序员的那些事  ·  请立即拿下软考证书(特大红利期) ·  2 天前  
OSC开源社区  ·  DeepSeek ... ·  昨天  
程序猿  ·  2024年系统编程语言调查报告:Rust稳居 ... ·  3 天前  
OSC开源社区  ·  案件与争议:2024年开源大事记 ·  4 天前  
OSC开源社区  ·  B站程序员利用权限恶意植入XSS攻击脚本,“ ... ·  5 天前  
51好读  ›  专栏  ›  OSC开源社区

加速技术开发!第110期北京源创会精彩回顾

OSC开源社区  · 公众号  · 程序员  · 2025-01-24 23:33

正文

OSCHINA

↑点击蓝字 关注我们


🔗《2024 中国开源开发者报告》正式发布




开年的第一场技术沙龙大家都看了吗!
红红火火的现场速递来了🔥
▲ 北京寒冷的天气挡不住 OSCer 们的参会热情~
感谢以上合作伙伴对本次活动的大力支持。
接下来进入主题演讲回顾环节

基于 uni-app 快速构建高性能鸿蒙原生应用

跨平台开发老兵、DCloud CTO 崔红保发表了《基于 uni-app 快速构建高性能鸿蒙原生应用》主题演讲。
崔红保介绍,uni-app 是一款跨平台开发框架,目前有十几亿的活跃设备,插件数量达到 15.8K。uni-app 已支持数十万款 APP 的开发上线,如开源中国 OSCHINA 全新 app 便是使用 uni-app 重构,一套代码,覆盖了 iOS 与 Android、HarmonyOS Next 等多个平台,现已经上架到不同应用市场。
uni-app 的鸿蒙化方案采用经典 Hybrid 架构,即逻辑层、视图层分离的模式;对存量 uni-app 项目更友好,可以平滑迁移至鸿蒙系统,最快入驻鸿蒙生态。
然而,由于 web 渲染引擎的性能瓶颈,以及 JS 进程通讯阻塞的问题,虽然 uni-app 的鸿蒙化方案对存量 App 开发者最为友好,但并非性能最佳。
崔红保指出,跨端框架若想媲美原生,就得成为原生。DCloud 推出纯原生的跨平台框架 uni-app x,开发态继续使用 web 技术栈,通过编译阶段将 JS + Vue 代码编译为各平台的原生语言,例如在鸿蒙 Next 上就编译为 arkTS + arkUI,一方面解决渲染引擎的问题,另一方面彻底消灭 JS 进程和 UI 进程之间的阻塞问题,完全实现原生效果。
对于未来,崔红保讲到,uni-app 团队会在开发体验、运行性能、插件生态等维度加强对鸿蒙平台的支持和强化。


开发应用一分钟,省却台下十年功:LazyLLM 助你高效构建 AI 助手!

商汤科技大装置事业群研发总监王志宏发表《开发应用一分钟,省却台下十年功:LazyLLM 助你高效构建 AI 助手!》主题演讲。
王志宏指出,目前纯大模型及微调无法满足实际的场景需求,AI Agent 俨然成为 2025 年最中心的产品议题。相关数据显示,整体 AI Agent 市场规模在 2025 年将达到 73.8 亿美元,到 2030 年达到 470 亿美元。在实际案例方面,AI Agent 能作用于各种广泛领域,包括电商、财管等多种领域,根据相关调研,九成公司都对 AI Agent 有计划和需求,大约 51% 的受访者已在生产中使用,78% 的受访者积极计划尽快将代理投入生产。
此外,大模型应用落地还面临一大难题 —— 半天 POC,半年难落地。
在这种背景下,多 Agent 大模型应用的开发框架 LazyLLM 应运而生,其开发的初衷是破局多 Agent 应用开发困境,协助开发者用极低的成本构建复杂的 AI 应用,并可以持续的迭代优化效果。用户可以先基于 LazyLLM 快速跑通应用的原型,再结合场景任务数据进行 bad-case 分析,然后对应用中的关键环节进行算法迭代和模型微调,进而逐步提升整个应用的效果。
其中,LazyLLM 加速 AI 应用开发的关键设计有以下几点:以数据流为核心的应用开发范式,LazyLLM 支持 Pipeline、Parallel、Switch、If、Loop、Diverter、Warp、Graph 等数据流;为同一模块的不同技术选型提供一致的使用体验,包括统一调用、统一服务、统一部署;复杂应用一键部署;跨平台,以及高可拓展架构、产品落地快等性能。
此外,用 LazyLLM 也可搭建 RAG 应用。RAG 核心流程包含数据读取、数据分块、向量化、召回、重排和生成几个部分,LazyLLM 为每个组件进行了封装,提供开箱即用的 RAG 搭建工具。


运用 Elasticsearch 进行向量搜索及 GenAI 智能应用开发

Elastic 中国社区首席布道师刘晓国发表《运用 Elasticsearch 进行向量搜索及 GenAI 智能应用开发》主题演讲。刘晓国指出,AI 时代对搜索提出了新要求。以往的用户需求往往通过全文搜索、结构化搜索等来给出结果,而现在的搜索要求则需要通过语义搜索、向量搜索等来满足。语义搜索是根据搜索查询的意图和上下文含义检索结果,而不仅仅是关键字,往往准确度更高。
现在,搜索也成为 Gen AI 的关键基础设施。生成式人工智能面临着特定的挑战,如幻觉、错误答案,复杂的技术堆栈,实时访问私人数据,安全和隐私挑战等。为了让 LLM 变 “聪明”,业界现有三种方式,其中一个是情境学习(prompt),RAG 则是一个重要实现方式。RAG 的目的是提高特定领域文档集的任务性能,仅在推理时运行需要查询特定的数据检索;无需适应新数据的时间,新信息通过检索(搜索)传递;出现幻觉的风险低;并且可定制,以实现外部信息检索系统可以调整以与 LLM 保持一致,也可以优化 Prompt 以提升任务执行能力。
具体而言,通过把私有业务数据,或是实时产生的数据放入私有数据库,转换成向量,在用户与大模型交互时,将问题也转换成向量,然后让数据库去比较向量的相似度,比较后给出最精准的答案。
Elasticsearch 目前在向量搜索领域提供了几乎所有的所需功能,除了存储搜索向量,也可以创建 embedding,此外还可以实现基于 HNSW 的索引;原生向量数据库,并非是插件;与现有 ES 搜索功能高度融合进行混合搜索;具备生成式人工智能应用所需的全部功能等。在 Elasticsearch 向量引擎最新进展中,已经实现利用 CPU 硬件指令加速向量索引和计算速度;增加查询并发度,充分利用更多的计算核心;向量有损压缩,float 到 int8、int4、bit 向量来平衡精度、速度和成本;一个查询的多个并发线程间协同共享信息,提前终止一些查询线程。


端到端可信交付・制品库建设在 DevOps 中的价值探讨

Gitee 制品库首席产品经理齐鹏发表了《端到端可信交付・制品库建设在 DevOps 中的价值探讨》主题演讲。齐鹏指出,从软件研发角度可将端到端交付归纳为研发依赖管控、构建成品管理和生产交付保障三个关键节点,只有在每个节点都进行了安全、规范、统一的管控,才能保障持续、稳定、高效的端到端交付。
在软件研发流程中也存在不同的管理难题,如平台方面,各团队构建成品分散存储,开发、测试、运维人员无统一协作平台;数据方面,软件研发流程数据无法记录,各个环节重要流程数据流失,无法串联上下游研发数据;版本方面,无法高效实现版本管控,缺乏统一的版本规范,导致版本物料不集中;安全方面,构建成品缺乏安全扫描机制,发布版本可能存在安全漏洞,给企业带来隐藏的安全风险。
Gitee Repo 作为企业级唯一可信制品管理平台,具备完善的端到端制品管理方案,可建立企业级唯一可信源。对私有云,可以构建企业级的研发数据存储仓库和分发仓库,具体如覆盖全语言门类的依赖仓库;制品生命周期全流程管控和记录;企业级制品价值挖掘,构建制品图谱;金融级制品发版解决方案,稳态流程管控;跨地域、跨机房、跨网络制品分发和一致性追溯。
对公有云,可以构建国家级的开源制品存储仓库和分发仓库,具体包括支撑供应链安全,构建国家级开源制品依赖仓库;为开发者赋能,搭建稳定可靠的制品共享中心;保护知识产权,制品许可证扫描合规入库、追踪;安全可信源,制品漏洞扫描合规入库,高危制品封禁。
此外,在风险治理阶段,GiteeRepo 具备完善的开源风险治理能力;在研发测试阶段,可通过 Repo 构建管理串联构建数据,支持集成测试质量信息等;在生产发布阶段,支持仓库级别的实时与定时同步,实现跨节点的仓库同步;支持将跨仓库制品组合为发布包,高效分发至各个生产中心,并确保分发包可信、可追溯。


如何快速搭建一个大模型应用?

数据项素高级工程师张国清发表《如何快速搭建一个大模型应用?》主题演讲。张国清介绍了一个企业级开源大模型应用开发平台 —— 毕昇,可以为大模型应用提供高价值数据要素供给与技能为中心的 LLM 开发工具链,帮助用户快速构建大模型通用应用及个性化端到端解决方案,赋能和加速大模型数智应用开发落地。
毕昇的优势主要有三项,一是数据优势 ,多年积累的自研 ETL4LLM 语料预处理模型套件(文擎励心),为智能化应用构建打造坚实基础;二是生态优势,依托国内企业级大模型应用开发最大生态,针对 B 端应用场景预制大量专业技能模板与通用应用,实现企业级应用的高效落地;三是场景优势,关注最终应用落地实效,团队积累了丰富的大型企业智能化应用项目落地经验。
毕昇目前有三类应用。一是技能,对应 langchain 的各个组件,底层原理是将 langchain 里各个组件进行可视化的展示,适合对 langchain 有一定了解的开发者,功能相当灵活且强大,例如一个 rag 应用在毕昇技能里拖这几个组件即可。
二是助手,底层是基于 langgraph 实现的一个可以调用工具来回答用户问题的 agent,可以通过接口来自定义工具、也可以挂载毕昇的知识库和技能来作为助手的工具。主打一个构建和使用简单,只需要描述需要助手做什么事情,自动优化 prompt 和选择工具。
三是工作流,毕昇的工作流底层引擎是基于 langgraph 运行工作流。支持用户任意组合节点之间的连线,支持成环、以及用户参与工作流运行过程中等等。


最后,再来张喜庆的大合照📷完美收官🔥

END


热门文章

效果媲美Cursor的开源替代:Roo-Cline
操作系统能知道自己是在虚拟机中运行的吗?
Deepseek团队核心成员揭秘——清北应届生撑起一片天
用Rust重写近6万行C++代码是怎样的体验?
2024年系统编程语言调查报告:Rust稳居榜首、Zig紧随其后





分享在看点赞~Orz