白嫖 3 亿 tokens
今天给大家介绍一个
白嫖 3 亿 tokens
的机会。
(非广,纯分享)
主角是一个叫做
SiliconFlow(硅基流动)
[1]
的 AI 服务提供商(国内公司)。
SiliconFlow 提供多个开源模型的聚合服务:
-
只提供开源模型的 AI 服务,比如阿里的 Qwen2 和智谱清言的 GLM4 模型。
-
所谓聚合,指的是通过一个 Key,即可调用各个开源模型,且兼容 OpenAI 接口。
-
尽管基于开源模型,但 SiliconFlow 提供的服务是收费的(但是便宜)。收费的原因是 SiliconFlow 在其高性能服务器上部署了这些模型,不用你自己在性能有限的主机上部署了。
SiliconFlow 提供的开源模型服务里,
就包括最近非常火热的 Qwen2,算是国产开源模型翘楚了。
一个好消息是,近期(
2024年5月31日 - 2024年6月18日
)注册 SiliconFlow,即可获赠 3 亿 tokens。
白嫖 3 亿 tokens
注册账户
登录 SiliconFlow 官网
https://siliconflow.cn
,注册一个账户,即可获赠 42 元额度(相当于 3 亿 Gemma-2B tokens)。
注册账户
进入账单,可以看到免费额度。(我还剩 41.921 元)
免费额度
SiliconFlow 提供的模型及其价格
目前,SiliconFlow 提供以下开源模型,价格也是很便宜了(大家可以对比测算下)。
SiliconFlow 提供的模型及其价格
上下文长度方面,最高支持 32K
,能满足大部分论文的 AI 阅读需求了。
在 Zotero 中试试 Qwen2
很多人可能还不知道国产模型 Qwen2 的实际效果,下面就以
Zotero One
来演示下 SiliconFlow 的 Qwen2 模型。
获取 API 密钥
首先在 SiliconFlow 后台,
获取 API 密钥
。👇
获取 API 密钥
在 Zotero One 中配置
在 Zotero One 的【
GPT 自定
】处,按照下图所示配置,即可调用 Qwen2 模型:
-
Host
:填写
https://api.siliconflow.cn
-
-
启用自定义模型:
勾选,并输入
alibaba/Qwen2-72B-instruct
在 Zotero One 中配置
接下来在 Zotero One【
GPT 侧边栏
】调用试试!
试试响应速度
不试不知道,一试吓一跳。😯
丝滑无比!
其流式输出具有堪比 GPT-4o 的响应速度,刚点击发送,结果就出来了。👇
试试响应速度
试试 论文 AI 阅读
再试试论文 AI 阅读,效果还是不错的。👇