主要观点总结
本文介绍了fabric这款AI工作流工具的Python版本安装问题以及Go版本的更新情况。文章详细阐述了fabric的安装过程、设置步骤、测试方法以及关键点的介绍。此外,还提到了fabric的使用心得和相关福利分享。
关键观点总结
关键观点1: fabric Go版本的发布和安装
fabric从Python版本切换到Go语言版本,安装过程变得简单顺滑。使用命令go install github.com /danielmiessler/fabric@latest即可完成安装。
关键观点2: fabric的设置
需要在.zshrc或.bashrc文件中设置环境变量,并安装附加命令yt获取Youtube视频信息。每个步骤都有交互式设置用户自定义API base url的机会。
关键观点3: fabric的测试和使用
通过组合使用fabric的命令,可以将苹果WWDC发布会视频转化为要点并自动生成一篇博客。还可以根据需要改变默认模型进行测试。
关键观点4: fabric的优势和福利分享
fabric让普通用户的安装和设置成本大幅降低,并能提供多个主流大模型的访问。通过订阅优惠链接可获得额外赠送金额。
正文
它包裹了大量的优秀提示词,可以处理各种你日常工作、学习和科研中的事务性工作。包括但不限于:
不少读者看过之后,大呼有用,然后亲手测试。有的测试成功,真正应用到了工作中,各种开心。
但很多小伙伴都遇到了一个问题 ——fabric 的 Python 版本,安装起来实在是不方便。
好在开发者有承诺,说两个月之内,就要整体从 Python 切换到 Go 语言。作者解释说这样一来,安装过程将是无比简单顺滑的。
到了 8 月 17 日,Go 版本可算是来了。但是按照官方提供的安装方式,却发现没有办法使用 OpenAI, Google, Anthropic 等少数几家供应商
之外
的 API Key 。因为缺乏一个关键设定 ——API base url,也就是 OpenAI 兼容模式的地址。
打个比方,你拿房间 A 的钥匙,去开房间 B 的锁,自然打不开。但是这个设置根本不让你设定到底想要打开哪间房子 —— 默认只能去房间 B 那里尝试。
fabric 的 Github issues 里面,好多小伙伴都提了需求,人家似乎也在积极修复。但是你就盯着它的 release 看好了,那是一动不动啊。一直停留在 fabric Go 版本发布的那一刻。
看着「最新 release 的发布日期」从「一周前」变成「两周前」,又变成了「上个月」…… 我几乎已经放弃了。但是星球的小伙伴不肯放弃,一直在崔更。
最近两周之内,fabric 实际上已经进行了一系列的密集更新。
应星友的邀请,我写下这篇教程,给你讲讲开发者口中的这个「配置起来丝般顺滑」的 fabric 该如何安装和使用。
转换到 Go 版本之后,安装 fabric 这个事儿着实变得异常简单,你只需要一条命令:
go install github.com/danielmiessler/fabric@latest
所有的依赖,都完全不需要你来处理,这次 fabric 自行解决。
不过这里我建议你安装一个附加命令,就是
yt
,它可以从 Youtube 视频中获取信息,方便你后续进一步处理加工。你需要执行
go install github.com/danielmiessler/yt@latest
如果你跟我一样使用 M 版本的 MacOS 系统,那么你需要在
.zshrc
或者
.bashrc
(具体看你用的是 zsh 还是 bash 了)的最后加上这几句:
# Golang environment variables
export GOROOT=/opt/homebrew/bin/go
export GOPATH=$HOME/go
export PATH=$GOPATH/bin:$GOROOT/bin:$HOME/.local/bin:$PATH:
注意如果你使用其他版本的系统,需要添加的命令有些不同。你可以 参考这个网址查看。
每一个步骤,几乎都给你设置用户自定义 API base url 的机会。这样可定制的灵活性大大增强。当然了,如果你使用的就是官方提供的 API key,也可以丝毫不用理会它。
为了方便,咱们直接设置 OpenRouter API key 就好。毕竟有了这样一个 key ,你几乎可以访问全部主流的大模型。具体介绍,
请参考这篇文章
。
甚至,你连本地模型都能设置。这里是 fabric 的设定流程,在询问你是否有 Ollama 服务。如果有,把 Ollama 提供给你的地址填入,你就可以直接调用本地大模型了。最近 Llama 3.2 小模型来了,视觉能力不错,不妨试试看。
fabric 还非常贴心提供了 SiliconCloud (硅基流动) 的 API key 输入位置。
这个网站,囊括了目前主流的开源大模型。例如 Llama 3.1 405B,Qwen 2.5 和 Deepseek 2.5 等。
别觉得 14 块钱不够多。如果你用其中的主流国产模型,这钱对应的是 2000 万 tokens,够你用一气了。
你还可以在注册时,使用我的优惠链接 (https://cloud.siliconflow.cn/i/XyPl6jj4) 或者优惠码(XyPl6jj4),可以获得额外的赠送金额。
走完这个对话,fabric 会帮你总结可用模型数量。
你看, 其中光是 Openrouter,就提供了 190 多个模型。
这里你可以选择某个模型作为默认模型。后续如果不加以特殊指定,fabric 就直接调用默认模型进行处理。
后续的设定,如果你没有特殊需求,一路回车就搞定了。
不过如果你想使用
yt
命令 (下文有样例),这里记得需要填写自己的 Youtube API key 哦。
咱们来测试一个「端到端」命令,把一个苹果 WWDC 2024 发布会视频 (时长 100 多分钟),先转化成一系列的要点。然后根据要点,让 fabric 自动转换成一篇博客。博客是英文的,所以还需要它帮助把内容翻译成中文。原本你跟大模型对话,这需要几次来回。但是现在有了 fabric ,你只需要这一条命令:
yt https://www.youtube.com/watch?v=RXeOiIDNNek | fabric -p extract_wisdom | fabric -p write_essay | fabric -sp translate_cn
这是使用咱们的默认模型 GPT-4o mini 运行的效果:
如果你对结果不满意,还可以改变模型。在前面管道
|
隔开的每一次 fabric 调用,你都可以用
-m
命令来修改模型调用。或者,你可以干脆改变默认模型。例如我这里是把默认模型修改成为了一个 405B 的开源大模型
nousresearch/hermes-3-llama-3.1-405b: free
。
注意这个
free
,它意味着
免费
。这样一来,执行起来比 GPT-4o mini 还要便宜,哈哈。