专栏名称: PaperWeekly
PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是自然语言处理的各个方向。我们热爱知识,分享知识,希望通过我们大家的努力为自然语言处理的发展做出一点点贡献。我们每周会分享一期特定话题的论文笔记和本周值得读的相关论文。
目录
相关文章推荐
募格学术  ·  清华教授:AI会取代95%的教师 ·  2 天前  
科研圈  ·  纳粹阴影下的科学里程碑:人类脑电100年 ·  4 天前  
51好读  ›  专栏  ›  PaperWeekly

微软亚洲研究院发布MMLU-CF:无污染的大语言模型理解基准来了!

PaperWeekly  · 公众号  · 科研  · 2024-12-26 18:03

正文



近年来,随着大语言模型(LLM)的不断进步,如何准确评估其能力已经成为研究的热点问题。诸如大规模多任务语言理解基准 MMLU(Massive Multitask Language Understanding),在评估大语言模型中起到重要作用,然而,由于开放源代码和训练数据的多样性,现有基准测试难免存在数据污染问题,影响评估结果的可靠性。

为了提供更为准确、公平的评估,微软亚洲研究院推出了 MMLU-CF,它是基于公开数据源,经过去污染设计的大语言模型理解基准,并已在 Huggingface 上开放。


MMLU-CF 介绍

MMLU-CF 是一个“无污染”的、更具挑战性的多项选择题基准数据集。数据集包含 20,000 道题目,分为 10,000 道验证集题目和 10,000 道测试集题目,其中验证集开源,测试集闭源。涵盖健康、数学、物理、商业、化学、哲学、法律、工程等 14 个学科领域。


论文链接:
https://arxiv.org/pdf/2412.15194

Github链接:

https://github.com/microsoft/MMLU-CF

HF Datasets链接:

https://huggingface.co/datasets/microsoft/MMLU-CF



MMLU-CF 的贡献

消除数据污染:传统基准测试可能存在数据污染,影响评估的公正性。MMLU-CF通过引入三条去污染规则并扩展数据源,确保测试结果更可靠。


防止恶意数据泄露:我们将数据集分为验证集和测试集,确保测试集保持闭源,避免数据泄漏引发的不公正结果。同时,验证集开源以促进透明度,便于独立验证。


对比结果:评估结果显示,GPT-4o 在 MMLU-CF 测试集上的 5-shot 得分为 73.4%,0-shot 得分为 71.9%,显著低于其在 MMLU 上取得的 88% 得分,证明了 MMLU-CF 基准的严格性。

图1. 主流大模型在 MMLU-CF 的测试集的 5-shot 得分表现



MMLU-CF vs MMLU 与 MMLU-Pro

MMLU 与 MMLU-Pro:这些基准测试主要关注任务的广度、推理能力和难度,但未考虑数据污染问题。


MMLU-CF:我们在数据收集时应用了去污染规则,确保避免数据泄露,同时将测试集保持闭源,防止恶意泄露。


以下是几款主流模型在 MMLU 与 MMLU-CF 数据集上的表现:

图2. 主流大模型在 MMLU-CF 和 MMLU 上的得分表现


在 API 模型中,GPT-4o 以 73.4% 的测试准确率占领榜首。


在大型模型(>50B 参数)中,Qwen2.5-72B-instruct 在 5-shot 测试中得分 71.6%,接近 GPT-4 级别的表现;Llama-3.3-70B-instruct 也取得了不错的成绩,得分为 68.8%。


在中型模型中,Qwen2.5-32B-instruct 表现强劲,得分 69.7%。Phi-4-14B 则取得了 67.8% 的成绩,超过了更大模型如 Qwen2-72B(63.7%)和 Mixtral-8x22B(62.8%),体现了其高效的架构。


在小型模型中,Qwen2.5-7B-instruct 以 61.3% 的成绩超越同类其他模型,如 Glm-4-9B-chat(57.8%)和 Llama-3-8B-instruct(57.3%)。在迷你模型中,Phi-3.5/3-mini-instruct 以 57.9% 的成绩领先,Qwen2.5-3B-instruct 得分 55.9%,依然超过了同类其他模型。



测试集与验证集的划分

在 MMLU-CF 中,我们将数据集划分为测试集和验证集,并通过计算绝对分数差异()评估模型的泛化能力。统计结果显示,约 60% 的 值小于 0.5,96% 的 值低于 1.0,表明测试集和验证集的评估结果高度一致。



数据构建流程

▲ 图3. 数据构建流程图


MMLU-CF 的数据构建包括以下几个步骤: 


1. 题目收集:从广泛的开放互联网域收集问题,保证问题的多样性。 


2. 题目清洗:确保收集到的问题质量高,适合用于评估。 


3. 难度采样:确保问题的难度分布合理。 


4. 大模型检查:使用 GPT-4o、Gemini、Claude 模型对数据的准确性和安全性进行检查。 


5. 去污染处理:通过去污染处理,确保数据集的无污染性。 


最终,MMLU-CF 数据集分别包含了 10,000 道测试集域验证集题目,同时测试集保持闭源,验证集则公开以保证透明性。



去污染处理规则

为了避免无意中的污染并评估模型的推理和理解能力,我们采用了三条去污染规则:


  • 规则 1:改写问题,减少模型对已见数据的依赖。

  • 规则 2:打乱选项,避免模型通过记忆选项顺序做出正确答案。

  • 规则 3:随机替换选项,增加模型的推理难度。

▲ 图4. 去污染示例


这些规则有效减少了恶意和无意的泄漏风险,确保了数据集的“无污染”性。



总结

MMLU-CF 为大语言模型的评估提供了一个更加公平和可靠的基准,不仅帮助研究者准确理解模型的能力,也为未来模型优化提供了宝贵的数据支持。如果您希望测试自己的大模型在 MMLU-CF 上的表现,请访问我们的 GitHub 主页获取更多信息。



招聘:MSRA - 大模型相关的数据生成、处理、训练和地质学交叉学科方向实习生与科研助理(需已毕业),联系方式 [email protected]


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·