项目简介
您完全熟练的、人工智能驱动的本地聊天机器人助手
everything-ai:全能AI助手,支持多种AI功能,包括文本生成、图像生成、视频生成等,适用于多语言环境,可本地部署
快速开始
1.
克隆这个存储库
git clone https://github.com/AstraBert/everything-ai.git
cd everything-ai
2. 设置您的 .env 文件
调整:
-
.env 文件中的 VOLUME 变量,以便您可以将本地文件系统挂载到 Docker 容器中。
-
.env 文件中的 MODELS_PATH 变量,以便您可以告诉 llama.cpp 您下载的 GGUF 模型的存储位置。
-
.env 文件中的 MODEL 变量,以便您可以告诉 llama.cpp 使用什么模型(使用 gguf 文件的实际名称,并且不要忘记 .gguf 扩展名!)
-
.env 文件中的 MAX_TOKENS 变量,以便您可以告诉 llama.cpp 它可以生成多少个新令牌作为输出。
.env 文件的示例如下:
VOLUME="c:/Users/User/:/User/"
MODELS_PATH="c:/Users/User/.cache/llama.cpp/"
MODEL="stories260K.gguf"
MAX_TOKENS="512"
这意味着现在本地计算机上“c:/Users/User/”下的所有内容都位于 Docker 容器中的“/User/”下,llama.cpp 知道在哪里查找模型以及要查找什么模型,及其输出的最大新令牌。
3. 拉取必要的镜像
docker pull astrabert/everything-ai:latest
docker pull qdrant/qdrant:latest
docker pull ghcr.io/ggerganov/llama.cpp:server
5. 前往 localhost:8670 并选择您的助手
你会看到这样的东西:
从以下选项中选择任务:
-
检索文本生成:使用 qdrant 后端构建检索友好的知识库,您可以在该知识库上查询和调整模型的响应。您必须传递一个 pdf/一堆指定为逗号分隔路径的 pdf,或者传递一个存储所有感兴趣的 pdf 的目录(不要同时提供两者);您还可以使用 ISO 命名法指定 PDF 的编写语言 - 多语言
-
不可知文本生成:类似 ChatGPT 的文本生成(无检索架构),但支持 HF Hub 上的每个文本生成模型(只要您的硬件支持!) - 多语言
-
文本摘要:总结文本和 pdf,支持 HF Hub 上的每个文本摘要模型 - 仅限英语
-
图像生成:稳定扩散,支持 HF Hub 上的每个文本到图像模型 - 多语言
-
image- Generation-polnations:稳定扩散,使用 Pollinations AI API;如果您选择“图像生成授粉”,则除了任务之外无需指定任何其他内容 - 多语言
-
图像分类:对图像进行分类,支持 HF Hub 上的每个图像分类模型 - 仅英文
-
图像到文本:描述图像,支持 HF Hub 上的每个图像到文本模型 - 仅英文
-
音频分类:对音频文件或麦克风录音进行分类,支持 HF hub 上的音频分类模型
-
语音识别:转录音频文件或麦克风录音,支持 HF 集线器上的自动语音识别模型。
-
视频生成:根据文本提示生成视频,支持 HF hub 上的文本到视频模型 - 仅限英语
-
蛋白质折叠:使用 ESM-2 主干模型从蛋白质的氨基酸序列中获取蛋白质的 3D 结构 - 仅适用于 GPU
-
autotrain:使用 autotrain-advanced 对特定下游任务的模型进行微调,只需指定 HF 用户名、HF 写入令牌以及用于训练的 yaml 配置文件的路径
-
space-api-supabase:将 HF Spaces API 与 Supabase PostgreSQL 数据库结合使用,以释放更强大的 LLMs 和更大的面向 RAG 的向量数据库 - 多语言
-
llama.cpp-and-qdrant:与检索文本生成相同,但使用 llama.cpp 作为推理引擎,因此您不得指定模型 - MULTILINGUAL
-
图像检索搜索:搜索图像数据库,上传文件夹作为数据库输入。该文件夹应具有以下结构:
./
├── test/
| ├── label1/
| └── label2/
└── train/
├── label1/
└── label2/
6. 转到 localhost:7860 并开始使用您的助手
一切准备就绪后,您可以前往 localhost:7860 并开始使用您的助手: