作为一个懒人,我一直希望知识的处理与输出能变得更加容易一些。这些年,我尝试了各种笔记工具,包括 Evernote, Notion, Obsidian, Logseq, Roam Research, Heptabase 等,就是希望能够无压记录,精准回顾,流畅输出。
在生成式 AI 真的带来这场变革之前,这些工具对于懒人还都是不够友好 —— 你得自己尝试对采集来的信息进行加工。就算不分类,也得打个标签,或者,怎么着也得手动建个双向链接吧?
其实我希望的,是随时去记录,而不必操心加工整理的事儿。当我真正想要调用之前的知识储备时,只需要一个自然语言简单查询,AI 就能遍历我的笔记库,自己根据语义找寻相关记录,然后总结输出,给我一个满意的答案。
从去年至今,我给你介绍过不少此类工具,包括但不限于 Notion/Craft AI, Quivr, Elephas, Obsidian Copilot, NotebookLM, Claude Project ……
首先,它会把大量文档切成小块,就像把一本厚书分成一页页的便利贴。
当你问一个问题时,RAG 会在这些「便利贴」中快速搜索相关信息。
它会根据相关程度挑选出最合适的几张「便利贴」。
然后,RAG 会把这些信息拼凑在一起,形成一个完整的背景资料。
最后,它会把你的问题和这份背景资料一起交给 AI。
有了这些额外的信息,AI 就能给出更加准确和深入的回答了。
RAG 的主要目的是解决 AI 模型「记忆力」有限的问题。通过这种方式,AI 可以获取更多相关信息,从而给出更加准确的回答。
但是,RAG 也有一个明显的缺点,那就是它需要你提前准备一个「仓库」,把所有相关的资料都放进去。有的软件会限制你仓库的大小,以及仓库里文件的数量。如果你笔记很多,这种限制就比较让人感觉头疼了。
你好不容易上传了数十甚至上百个文件,结果发现其中部分文件经常要发生变动,你还得一次次手动更新。
有些云端笔记软件提供的 RAG 方案,可以避免文件手动上传,且搞定自动更新的问题,听起来非常理想。但是,很多小伙伴可能已经充分意识到了把笔记全都放在云端,并不是一个很好的选择。
说起本地笔记存储,同时兼具易用性,我原本最为推荐 Obsidian Copilot. 但是,很多小伙伴在设置 Copilot 的时候,都遇到了各种「组合问题」。例如选什么样的 Embedding,如何设置 OpenRouter 的 Key ,各种选项不匹配该怎么调整等等问题。显然 Copilot 这个 Obsidian 自定义插件对于小白用户来说,还不够友好与体贴。
这次,我找到了一个真正笔记本地存储、开箱即用的 RAG 方案。它自己去搞定先进大模型的调用与 RAG 方案,而你作为一名用户,只需要把内容放在一个文件夹,然后用它打开就行。