项目简介
AI Hub旨在持续测试和评估主流大型语言模型,同时积累和管理各种有效的模型调用提示(prompt)。目前,AI Hub已接入国内所有主流的大型语言模型,包括文心一言、腾讯混元、智谱AI、MiniMax、百川智能等,并计划持续追踪、接入和评估新模型。
已支持模型列表:
-
OpenAI / gpt-4-turbo
-
OpenAI / gpt-3.5-turbo
-
Baidu / ERNIE-Bot-4(文心一言4)
-
Baidu / ERNIE-Bot-turbo(文心一言)
-
Zhipu / glm-4(智谱GLM-4)
-
Zhipu / chatGLM_turbo(智谱chatGLM)
-
Ali / qwen-plus(通义千问plus)
-
Ali / qwen-turbo(通义千问)
-
Tencent / ChatPro(腾讯混元高级版)
-
Tencent / ChatStd(腾讯混元标准版)
-
Baichuan / Baichuan2-Turbo(百川)
-
Minimax / abab5.5-chat(MiniMax)
-
Minimax / abab6-chat(MiniMax)
-
Xunfei / Spark3.1(讯飞星火)
-
Moonshot / moonshot-v1-8k (月之暗面)
-
Xunfei / Spark3.5 (讯飞星火3.5)
-
ByteDance / Skylark-chat (字节豆包)
使用前请在 Settings 页面设置模型的 credentials:
评估结果
英文翻译
测试用例看这里
编程
测试用例看这里
指令输出
测试用例看这里
大模型接入
如果你想自己接入列表中的大模型,可以通过以下方式。
Rest 服务
启动 ai-hub-server,访问
http://127.0.0.1:3000/api/v1/models/${provider}/${model}:chat
Post:
Java 代码接入
可以参考这里
@Service
public class AIModelInvokerFactory {
private final ApplicationContext context;
@Autowired
public AIModelInvokerFactory(ApplicationContext context) {
this.context = context;
}
public AIModelInvoker getProviderAdapter(String providerName) {
AIProvider provider = AIProvider.fromName(providerName);
switch (provider) {
case OPENAI:
return context.getBean(OpenAIInvoker.class);
case BAICHUAN:
return context.getBean(BaichuanInvoker.class);
case ALI:
return context.getBean(AliInvoker.class);
case BAIDU:
return context.getBean(BaiduInvoker.class);
case ZHIPU:
return context.getBean(ZhipuInvoker.class);
case TENCENT:
return context.getBean(TencentInvoker.class);
case XUNFEI:
return context.getBean(XunfeiInvoker.class);
case MINIMAX:
return context.getBean(MiniMaxInvoker.class);
default:
throw new IllegalArgumentException("Unknown provider: " + provider);
}
}
}
运行
Docker
推荐使用 docker-compose 启动服务
cd docker
docker-compose up -d
数据库
参考脚本
前端
cd ai-hub-fe
npm run start
服务端
需要 JDK 11 以上版本