专栏名称: GitHubStore
分享有意思的开源项目
目录
相关文章推荐
科普中国  ·  AI“朋友圈”,影响力有多大? ·  17 小时前  
科学画报  ·  直播预告 | ... ·  2 天前  
环球科学  ·  读了这15本书,你就不会错过2024年的科学 ... ·  2 天前  
51好读  ›  专栏  ›  GitHubStore

开源本地化 RAG 系统Minima

GitHubStore  · 公众号  ·  · 2025-02-19 08:40

正文

项目简介

开源的基于容器的 RAG 系统,可以完全在本地运行,也可以与 ChatGPT 和 Claude 等集成,项目的主要目标是让用户能够安全地查询自己的本地文档


核心功能

1. 智能文档问答

· 基于用户本地文档(PDF、Word、文本等)进行问答,答案由 AI 生成

· 支持完全本地运行(无需联网),或结合外部 AI 服务(如 ChatGPT、Claude)

2. 三种运行模式本地模式:

· 所有组件(LLM、嵌入模型、重排序模型)均在本地运行,数据完全隔离

· ChatGPT 模式:本地处理文档索引,生成答案时调用 ChatGPT(需联网)

· Claude 模式:与 Anthropic Claude 桌面应用集成,本地索引+Claude 生成答案

3. 核心特性数据隐私:

· 文档索引、检索过程完全本地化,避免敏感数据外传

· 灵活扩展:支持多种开源模型(如 Sentence Transformers、Ollama的LLM)

· 多格式支持:PDF、Excel、Word、Markdown 等常见文档类型

架构设计

1. 模块化容器服务:

· 通过 Docker Compose 组合多个微服务:索引服务:扫描本地文档,生成文本片段和向量嵌入

· 向量数据库:使用 Qdrant 存储向量,支持高效相似性检索

· LLM 服务:本地通过 Ollama 运行模型,或对接外部 API(如 ChatGPT)

· 重排序服务:优化检索结果(如 BAAI/bge-reranker 模型)

· 前端交互:提供 Electron 桌面应用或 Web 界面

2. 关键技术栈嵌入模型:

· 如 sentence-transformers/all-mpnet-base-v2,将文本转为向量

· 向量数据库:Qdrant 用于存储和快速检索向量

· 本地 LLM:通过 Ollama 运行模型(如 qwen2:0.5b)

· 重排序模型:提升检索结果相关性(如 BAAI 系列)

3. 数据流示例:

用户提问 → 向量化查询 → Qdrant 检索 → 重排序 → LLM 生成答案




项目链接

https://github.com/dmayboroda/minima

扫码 加入技术交流群,备注 开发语言-城市-昵称

合作请注明







请到「今天看啥」查看全文