专栏名称: 玉树芝兰
思考教育、写作和互联网。 我已委托“维权骑士”(rightknights.com)为我的文章进行维权行动。
目录
相关文章推荐
商学院  ·  有奖问卷 | 激活未来组织 ·  3 天前  
51好读  ›  专栏  ›  玉树芝兰

开箱即用的 AI 第二大脑,好使吗?

玉树芝兰  · 公众号  · 大数据  · 2024-09-03 16:36

正文

(注:本文为小报童精选文章。已订阅小报童或加入知识星球「玉树芝兰」用户请勿重复付费


需求

作为一个懒人,我一直希望知识的处理与输出能变得更加容易一些。这些年,我尝试了各种笔记工具,包括 Evernote, Notion, Obsidian, Logseq, Roam Research, Heptabase 等,就是希望能够无压记录,精准回顾,流畅输出

在生成式 AI 真的带来这场变革之前,这些工具对于懒人还都是不够友好 —— 你得自己尝试对采集来的信息进行加工。就算不分类,也得打个标签,或者,怎么着也得手动建个双向链接吧?

其实我希望的,是随时去记录,而不必操心加工整理的事儿。当我真正想要调用之前的知识储备时,只需要一个自然语言简单查询,AI 就能遍历我的笔记库,自己根据语义找寻相关记录,然后总结输出,给我一个满意的答案。

这个事儿看起来容易,实践起来却不那么顺利。

从去年至今,我给你介绍过不少此类工具,包括但不限于 Notion/Craft AI, Quivr, Elephas, Obsidian Copilot, NotebookLM, Claude Project ……

这些工具样貌各异,但是背后都由一个共同的技术支撑,那就是 RAG。RAG 是「检索增强生成」(Retrieval-Augmented Generation)的缩写。RAG 是如何工作的呢?之前我在《GraphRAG + GPT-4o mini 低成本构建 AI 图谱知识库》一文给你介绍过,现在咱们简要回顾一下:

  1. 首先,它会把大量文档切成小块,就像把一本厚书分成一页页的便利贴。

  2. 当你问一个问题时,RAG 会在这些「便利贴」中快速搜索相关信息。

  3. 它会根据相关程度挑选出最合适的几张「便利贴」。

  4. 然后,RAG 会把这些信息拼凑在一起,形成一个完整的背景资料。

  5. 最后,它会把你的问题和这份背景资料一起交给 AI。

  6. 有了这些额外的信息,AI 就能给出更加准确和深入的回答了。

RAG 的主要目的是解决 AI 模型「记忆力」有限的问题。通过这种方式,AI 可以获取更多相关信息,从而给出更加准确的回答。

但是,RAG 也有一个明显的缺点,那就是它需要你提前准备一个「仓库」,把所有相关的资料都放进去。有的软件会限制你仓库的大小,以及仓库里文件的数量。如果你笔记很多,这种限制就比较让人感觉头疼了。

你好不容易上传了数十甚至上百个文件,结果发现其中部分文件经常要发生变动,你还得一次次手动更新。

有些云端笔记软件提供的 RAG 方案,可以避免文件手动上传,且搞定自动更新的问题,听起来非常理想。但是,很多小伙伴可能已经充分意识到了把笔记全都放在云端,并不是一个很好的选择

说起本地笔记存储,同时兼具易用性,我原本最为推荐 Obsidian Copilot. 但是,很多小伙伴在设置 Copilot 的时候,都遇到了各种「组合问题」。例如选什么样的 Embedding,如何设置 OpenRouter 的 Key ,各种选项不匹配该怎么调整等等问题。显然 Copilot 这个 Obsidian 自定义插件对于小白用户来说,还不够友好与体贴

这次,我找到了一个真正笔记本地存储、开箱即用的 RAG 方案。它自己去搞定先进大模型的调用与 RAG 方案,而你作为一名用户,只需要把内容放在一个文件夹,然后用它打开就行。