评估和比较大语言模型 (LLMs) 是一项艰巨的任务。我们 RLHF 团队在一年前就意识到了这一点,当时他们试图复现和比较多个已发布模型的结果。这几乎是不可能完成的任务:论文或营销发布中的得分缺乏可复现的代码,有时令人怀疑,大多数情况下只是通过优化的提示或评估设置来尽量提升模型表现。因此,他们决定创建一个地方,在完全相同的设置 (同样的问题,按相同的顺序提问等) 下评估参考模型,从而收集完全可复现和可比较的结果;Open LLM Leaderboard 就这样的背景下发布啦!
在一系列高调的模型发布后,它成为了机器学习社区及更广泛领域内的广泛资源,过去 10 个月中有超过 200 万的独立访问者。
每月约有 30 万社区成员通过提交和讨论使用这个平台,通常是为了:
-
寻找最先进的开源发布,因为排行榜提供了可复现的得分,区分了营销炒作与实际进展。
-
评估他们的工作,无论是预训练还是微调,公开比较方法并与最佳现有模型进行比较,并获得公众认可。
然而,随着排行榜的成功以及模型性能的不断提升,也带来了挑战。经过一年多的激烈使用和大量社区反馈后,我们认为是时候进行升级了!因此,我们推出了 Open LLM Leaderboard v2!
https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard
(还是之前的链接)
以下是我们认为需要新排行榜的原因👇
为什么需要更具挑战性的排行榜
在过去的一年里,我们使用的基准测试已经被过度使用和饱和:
-
它们对模型来说变得太容易。例如,模型现在在 HellaSwag、MMLU 和 ARC 上达到了人类基准性能,这种现象被称为饱和。
-
一些较新的模型也表现出污染的迹象。这意味着这些模型可能在基准数据或与基准数据非常相似的数据上进行训练。因此,一些得分不再反映模型的一般性能,而是开始在某些评估数据集上过拟合,而不是反映所测试任务的一般性能。特别是 GSM8K 和 TruthfulQA,已包含在一些指令微调集中。
-
一些基准测试包含错误。例如,最近多个研究团队对 MMLU 进行了深入调查 (见
MMLU-Redux
和
MMLU-Pro
) ,发现了其响应中的错误并提出了新版本。另一个例子是 GSM8K 使用了特定的生成结束标记 (:) ,这不公平地降低了许多冗长模型的表现。
因此,我们决定完全更换 Open LLM Leaderboard v2 的评估!
-
MMLU-Redux
https://arxiv.org/abs/2406.04127
-
MMLU-Pro
https://arxiv.org/abs/2406.01574
重新选择我们的评估标准
我们开始寻找具有未污染、高质量数据集,使用可靠指标并测量模型关键能力的新基准测试。
我们决定涵盖以下一般任务:知识测试 (📚) 、短期和长期上下文推理 (💭) 、复杂数学能力以及与人类偏好高度相关的任务 (🤝) ,如指令遵循。
我们使用六个基准测试来涵盖这些任务。让我们简要介绍它们:
📚
MMLU-Pro
(大规模多任务语言理解 - 专业版,
论文
) 。MMLU-Pro 是 MMLU 数据集的改进版本。MMLU 一直是多选知识数据集的参考。然而,最近的研究表明它既包含噪音 (一些问题无法回答) ,又太容易 (通过模型能力的进化和污染的增加) 。MMLU-Pro 向模型提供十个选择而不是四个,要求在更多问题上进行推理,并经过专家审查以减少噪音量。它比原版质量更高且更难。
-
论文
https://arxiv.org/abs/2406.01574
📚
GPQA
(研究生级别的谷歌问答基准,
论文
) 。GPQA 是一个极其困难的知识数据集,其中问题由领域专家 (生物学、物理学、化学等领域的博士水平) 设计,使得外行人难以回答但专家相对容易。问题经过多轮验证,以确保难度和准确性。数据集也只能通过网关机制访问,这减少了污染风险。(这也是为什么我们不提供来自此数据集的纯文本示例的原因,正如论文作者要求的那样) 。
-
论文
https://arxiv.org/abs/2311.12022
💭
MuSR
(多步软推理,
论文
) 。MuSR 是一个非常有趣的新数据集,由算法生成的复杂问题组成,长度约为 1000 字。问题包括谋杀之谜、物体放置问题或团队分配优化。为了解决这些问题,模型必须结合推理和非常长的上下文解析。很少有模型得分高于随机水平。
-
论文
https://arxiv.org/abs/2310.16049
🧮
MATH
(数学启发式测试,5 级子集,
论文
) 。MATH 是一个由多个来源收集的高中级别竞赛问题的汇编,使用 Latex 一致地格式化方程和 Asymptote 格式化图形。生成的答案必须严格遵循特定的输出格式。我们只保留最难的问题。
-
论文
https://arxiv.org/abs/2103.03874
🤝
IFEval
(指令遵循评估,
论文
) 。IFEval 是一个相当有趣的数据集,测试模型清晰遵循明确指令的能力,例如“包括关键词 x”或“使用格式 y”。模型被测试是否能够严格遵循格式指令,而不是实际生成的内容,从而可以使用严格的指标。
-
论文
https://arxiv.org/abs/2311.07911
🧮 🤝
BBH
(大基准测试难题,
论文
) 。BBH 是 BigBench 数据集中 23 个具有挑战性的任务的子集,其中 1) 使用客观指标,2) 难度高,测量为语言模型未能超越人类基线,3) 包含足够多的样本以具有统计显著性。它们包含多步算术和算法推理 (理解布尔表达式、几何图形的 SVG 等) 、语言理解 (讽刺检测、名称消歧等) 和一些世界知识。BBH 的表现平均与人类偏好高度相关。我们期望这个数据集能够提供对特定能力的有趣见解,吸引人们的兴趣。
-
论文
https://arxiv.org/abs/2210.09261
https://open-llm-leaderboard-sample-viewer.hf.space/
为什么我们选择这些子集?
总的来说,我们的选择标准是:
-
-
-
学术界和开源社区的广泛使用:BBH、IFEval、MATH
-
-
-
生成性评估应严格限制格式 (如 MATH) ,或使用非常明确的指标 (如 IFEval) 或后处理 (如 BBH) 来提取正确答案。
-
-
选择新的基准测试并不是全部。我们还对排行榜进行了几项其他改进,将在下文进行简要介绍。
报告更公平的排名平均值:使用标准化分数
我们决定改变模型的最终得分。我们没有将每个基准输出得分相加,而是将这些得分标准化在随机基线 (0 分) 和最大可能得分 (100 分) 之间。然后我们平均所有标准化分数以获得最终平均得分并计算最终排名。例如,在一个每个问题包含两个选择的基准测试中,随机基线将获得 50 分 (满分 100 分) 。如果使用随机数生成器,您可能会在此评估中获得约 50 分。这意味着得分始终在 50 (如果基准不是对抗性的最低合理得分) 和 100 之间。因此,我们更改范围,使得 50 的原始分数为 0 的标准化分数。这对生成性评估如 IFEval 或 MATH 没有影响。
这个变化比看起来更重要,因为它可以看作是改变了每个基准在最终平均分中的权重。
在上图中,我们绘制了评估的平均得分,左侧为标准化得分,右侧为原始得分。如果看右侧,您会得出 MATH 5 级和 MMLU-Pro 是最难的基准 (原始平均值最低) 。然而,我们的两个最难评估实际上是 MATH 5 级和 GPQA,它们难得多 (博士水平的问题!) ——今天的大多数模型在它上面接近随机性能,因此在未标准化得分和标准化得分之间存在巨大差异,随机数基线得分为零分!
因此,这个变化也影响了整体模型排名。假设我们有两个非常难的评估,一个生成性和一个多选题,有两个选项样本。模型 A 在生成性评估中得 0 分,在多选题中得 52 分,模型 B 在生成性评估中得 10 分,在多选题中得 40 分。看原始平均值,您可能会得出模型 A 更好的结论,平均得分为 26,而模型 B 的平均得分为 25。然而,对于多选题基准,他们实际上都同样差 (!) :52 几乎是多选题评估中的随机分数,40 是不幸的随机分数。当取标准化得分时,A 得 0 分,而 B 得约 1 分。然而,在生成性评估中,模型 B 比 A 高出 10 分!如果我们取标准化平均值,B 的得分为 5,而 A 几乎为 0,因此排名非常不同。
更容易的可复现性:更新评估套件
一年前,我们选择使用 EleutherAI 的 Harness (lm-eval) 来进行我们的评估。它为多个任务提供了标准和稳定的实现。为了确保公平和可复现性,我们固定了所使用的版本。这使我们能够在完全相同的设置下比较所有模型,因为所有评估都是以完全相同的方式运行的,在相同的硬件上,使用相同的评估套件提交和参数。
然而随着
lm-eval
的更新,某些任务或指标的实现发生了变化,这导致 1) 人们在更近期版本的 harness 上获得的评估结果和 2) 我们使用固定版本的结果之间出现了差异。
对于新版的 Open LLM Leaderboard,我们与 EleutherAI 团队 (尤其感谢Hailey Schoelkopf) 合作更新了 harness。
在功能方面,我们添加了对 delta 权重 (LoRA 微调/模型适配) 的支持、与排行榜兼容的日志系统以及高度请求的使用聊天模板进行评估。
在任务方面,我们花了几周时间手动检查所有实现和生成结果,修复了我们观察到的问题,如不一致的少样本样本、过于严格的句子结束标记等。我们为
排行榜任务实现创建了特定的配置文件,并正在添加一个测试套件,以确保评估结果随时间保持不变。
你可以在这里探索我们使用的可视化工具!
https://open-llm-leaderboard-generationvisualizer.hf.space/
这将使我们能够保持版本的更新,以便将来添加新功能!
关于排行榜后端和指标已经说了很多。现在,让我们转向模型和模型选择/提交。
维护者推荐介绍
在过去的一年里,我们评估了超过 7500 个模型,观察到许多模型并没有被社区广泛使用。
最常用的通常是新的基础预训练模型,通常使用大量计算资源构建,社区可以随后进行微调以适应其用例 (如 Meta 的 Llama3 或阿里巴巴的 Qwen2) 。一些高质量的聊天或指令模型找到了一个庞大的用户社区,如 Cohere 的 Command + R,并成为社区实验的强大起点。♥️
然而,其他模型的故事可能不同,即使在排行榜上排名靠前。一些模型是实验性的,令人着迷且令人印象深刻的超过 20 个连续模型创建步骤的结合,通过微调或合并。
然而,这些模型提出了一些挑战:
-
当堆叠如此多的步骤时,很容易丢失精确的模型配方和历史记录,因为一些父模型可能被删除,先前步骤的微调信息可能消失等。
-
然后模型可能会意外污染 😓
去年发生了几次,从包含 TruthfulQA 或 GSM8K 信息的指令数据集微调的父模型派生的模型。
-
模型可能会在基准测试上表现良好,但与其实际表现无关 🙃
这可能发生在选择在相同基准上表现优异的模型进行合并时——这似乎选择性地提高了在这些基准上的表现,而与实际生活情况中的质量无关。(可能需要更多的研究) 。
为了在排行榜中突出高质量模型并优先评估最有用的模型,我们决定引入一个类别,称为“维护者推荐”⭐。
在这个列表中,您会发现来自各种来源的 LLM,由社区和 Hugging Face 团队手工挑选。我们包括像 Meta 或 Google 这样的公司,像 Cohere 或 Mistral 这样的初创公司,像 EleutherAI 或 NousResearch 这样的集体,以及许多其他用户发布的优秀模型。
该列表将根据社区建议和我们的观察不断发展,旨在尽可能包括最新的 SOTA LLM,并优先评估这些模型。
我们希望这也能使非机器学习用户更容易在排行榜上的众多模型中找到方向。
投票模型相关性
对于 Open LLM Leaderboard 的前一版本,评估通常以排队 (“先提交,先评估”) 的方式进行。随着用户有时一次提交许多 LLM 变体,Open LLM Leaderboard 在 Hugging Face 科学集群的空闲计算资源上运行,我们决定为提交的模型引入投票系统。社区将能够为模型投票,我们将优先运行票数最多的模型,将最受期待的模型排在优先队列的顶部。如果某个模型在集群满负荷时获得极高的票数,我们甚至可能考虑手动运行它而不是其他内部任务。
为避免垃圾投票,用户必须连接到他们的 Hugging Face 帐户才能投票,我们将保存投票记录。这个系统将帮助我们优先考虑社区热衷的模型。
最后,我们一直在努力改进和简化排行榜界面本身。
更好和更简单的界面
如果您是我们的常规用户之一,您可能已经注意到我们前端从上个月开始变得更快了。
这得益于 Gradio 团队的工作,尤其是
Freddy Boulton
,他开发了
Leaderboard gradio 组件
!它特别在客户端加载数据,使任何列选择或搜索几乎即时!你也可以在你自己的排行榜中重用它!
-
Freddy Boulton
https://hf.co/freddyaboulton
-
Leaderboard gradio 组件
https://hf.co/spaces/freddyaboulton/gradio_leaderboard
我们还决定将 FAQ 和关于标签移到它们自己的专用文档页面!
新排行榜,新结果!
我们将开始添加和评估“维护者推荐”部分的模型 (见上文) ,并期待社区向新版排行榜提交他们的新模型!!
排名结果如何?
看看 Open LLM Leaderboard 之前版本的前 10 名模型,并与这个更新版本进行比较,一些模型的排名相对稳定 (如下加粗) :Qwen-2-72B instruct,Meta 的 Llama3-70B instruct,01-ai 的 Yi-1.5-34B chat,Cohere 的 Command R + model,以及最后来自 AbacusAI 的 Smaug-72B。
我们对 Qwen2-72B-Instruct 特别印象深刻,它比其他模型高出一大步,平均得分为 43.02 (尤其得益于其在数学、长范围推理和知识方面的表现) 。
目前的第二名模型,Llama-3-70B-Instruct (平均得分 36.67) ,在 GPQA 上与其预训练版相比失去了 15 分 (4.92 vs 19.67) !这引发了一个问题,即 Meta 团队对这个模型进行的广泛指令微调是否影响了一些专家/研究生级别的知识。
当然,这个排名只是排行榜的开始,我们期望它在更多模型得到评估后会很快改变。你可以查看队列状态,看看哪些模型正在运行!
排名
|
新排行榜排名
|
⭐
|
Qwen/Qwen2-72B-Instruct
|
2
|
meta-llama/Meta-Llama-3-70B-Instruct
|
3
|
microsoft/Phi-3-medium-4k-instruct
|
4
|
01-ai/Yi-1.5-34B-Chat
|
5
|
CohereForAI/c4ai-command-r-plus
|
6
|
abacusai/Smaug-72B-v0.1
|
7
|
Qwen/Qwen1.5-110B
|
8
|
Qwen/Qwen1.5-110B-Chat
|
9
|
microsoft/Phi-3-small-128k-instruct
|
10
|
01-ai/Yi-1.5-9B-Chat
|