介绍
通过构建自己的知识库,可以将自己整理的文献,公众号文章,博客文章等资料传入,让AI从里面分析总结各种内容。目前支持的文档格式包括:
pdf,docx,pptx,xlsx,txt,md,mdx。
本篇将介绍两种方式实现个人知识库构建:
实际上,两个工具都同时支持联网版和本地版,这里提供两个示例,更多功能可以进一步探索。
我们知道OpenAI等也提供了API,与之相比,本地部署正是DeepSeek这类开源模型的优势!下面两篇是我们之前关于本地DeepSeek R1 配置的介绍。
基于 Cherry Studio 的联网满血版
https://cherry-ai.com/download
打开:
https://cloud.siliconflow.cn/i/MU4i5xpE
首次需要注册,
这里有基于
华为云昇腾云服务的DeepSeek R1模型,有很多免费额度。
3. 设置API
左下角的设置符号,选择SiliconFlow,输入上一步的API Key。点击Check,会显示成功连接。
也可以通过Ollama设置下本地模型,点击下方的管理(Manage),选择本地的模型。本地模型设置方法见(只需看第一部分):
4. 设置好后,已经是一个可用的客户端
Embedding Model 也在SiliconFlow中。我们使用免费版,有条件可以使用付费版,更优的模型对本地文档的处理效果也更好。
当打开SiliconFlow后,免费版应该是默认存在的:
7. 设置知识库
添加知识库
支持格式:
pdf,docx,pptx,xlsx,txt,md,mdx
设置好后要等待一下,出现绿色对勾 (向量化处理已完成) 后则可用。
8. 回到聊天界面,注意需要在窗口下设置和选择知识库
这里我们的文件夹确实是这三篇论文:
AnythingLLM + 本地DeepSeek
2. 安装后选择Ollama,设置之前配置好的本地DeepSeek模型。
4. 这里我们选择三篇CVPR 2024文章作为示例,上传后需要点击“Move to Workspace” (这里上传实际也存储在了本地电脑上)
5. 保存后,需要点击这个图钉符号,才能被当前工作区使用
6. 测试: