专栏名称: 机器之心
专业的人工智能媒体和产业服务平台
目录
相关文章推荐
新智元  ·  DeepSeek-R1-Zero不存在顿悟时 ... ·  2 天前  
爱可可-爱生活  ·  【[1.5k星]Ophiuchi-Deskt ... ·  2 天前  
新智元  ·  历史分水岭:DeepSeek ... ·  3 天前  
AI前线  ·  “李飞飞团队 50 美元炼出 ... ·  3 天前  
黄建同学  ·  Huggingface 发布了 ... ·  4 天前  
51好读  ›  专栏  ›  机器之心

DeepSeek-R1、o1都低于10%,人类给AI的「最后考试」来了,贡献者名单长达两页

机器之心  · 公众号  · AI  · 2025-02-08 10:22

正文

机器之心报道

编辑:Panda

随着 AI 大模型在一个又一个的任务上达到乃至超越人类水平,人类文明似乎已经进入了与 AI 共生的时代。

为了跟踪 AI 的发展进度,适当的基准必不可少。但现在,由于 AI 发展的速度实在太快,已有的基准已经开始不够用了。比如在常用的基准 MMLU 上,当今前沿的 LLM 已经能达到超过 90% 的准确度了!这就限制了对前沿 LLM 能力的精确度量能力。

基于此现状,Center for AI Safety(AI 安全中心)与 Scale AI 联合打造一个名字相当吸引眼球的新基准: Humanity's Last Exam ,即「 人类的最后考试 」,简称 HLE


  • 论文标题:Humanity’s Last Exam
  • 论文地址:https://arxiv.org/pdf/2501.14249
  • 项目地址:https://lastexam.ai

从名字也能看出来,其背后必然有一个雄心勃勃的团队。据介绍,HLE 是一个「位于人类知识前沿的多模态基准」,其设计目标是成为「同类中具有广泛学科覆盖范围的终极封闭式学术基准。」

现目前,HLE 已包含 3000 个问题,涉及上百门学科,包括数学、人文科学和自然科学。其中的问题主要由适合自动评估的多项选择题和简单问答题构成;每个问题都有一个已知的解,该解非常明确且易于验证,但无法通过互联网检索快速回答。

为了构建 HLE 基准,Center for AI Safety 与 Scale AI 向全球不同学科的专家寻求了帮助,最终让该论文有了一份长达两页、近千人的数据集贡献者名单:



该团队也使用该基准测试了一些 SOTA 模型,结果如下。很显然,HLE 相当难。


数据集

HLE 包含 3000 多个高难度问题,涉及一百多个科目,概况见下图 3 。


下面展示了一些问题示例:





虽然这些问题已公开发布,但该团队也表示还维护着一个私有的测试集,其中包含一些用来评估模型过拟合现象的问题。

收集数据集

该团队在技术报告中分享了 HLE 基准数据集的收集过程:「HLE 是一项全球合作的成果,其中的问题来自 50 个国家 / 地区的 500 多个机构的近 1000 名学科专家贡献者 —— 主要由教授、研究人员和研究生学位持有者组成。」

问题风格 :HLE 包含两种问题格式:精确匹配问题(模型提供确切的字符串作为输出)和多项选择题(模型从五个或更多答案选项中选择一个)。HLE 是一个多模态基准,其中 10% 的问题需要同时理解文本和图像。80% 的问题是精确匹配型问题,其余的是多项选择题。

提交格式 :为确保问题的质量和完整性,该团队设定了严格的提交标准。

  • 问题应该准确、明确、可解且不可搜索,确保模型不能依赖记忆或简单的检索方法。
  • 所有提交内容必须是原创的,或者是基于已发表信息的非平凡合成版本,但也会接受未发表的研究。
  • 问题通常需要研究生水平的专业知识或高度特定主题的测试知识(例如,精确的历史细节、琐事、当地习俗),并且有领域专家接受的具体、明确的答案。
  • 当 LLM 能提供正确答案但推理有误时,希望作者能修改问题参数,例如答案选项的数量,以阻止假正例。
  • 要求明晰的英语和精确的技术术语,并在必要时支持 LATEX 标注。
  • 答案要简短,并且对于精确匹配的问题,答案要容易验证,以支持自动评分。
  • 禁止开放式问题、主观解释题和与大规模杀伤性武器有关的内容。
  • 每个问题都应附有详细的解答以验证准确性。

奖金池 :为了吸引高质量的投稿,该团队还设立了一个奖金池,其中包含 50 万美元。对于前 50 个问题,每个奖金 5000 美元,接下来的 500 个问题每个奖金 500 美元,具体由组织者决定。正是由于这种这种激励结构,加上任何被 HLE 接收的问题的作者都有机会成为论文合著者,吸引了有资历专家的参与,尤其是那些在其领域内拥有高级学位或丰富技术经验的专家。

收集完成后,该团队还组织人手对收集到的问题进行了审核,下图展示了其审核流程:


当前 SOTA 模型在该基准上表现如何?

有了基准,自然得对当前的模型进行一番评估。该团队评估了 SOTA 模型在 HLE 上的性能表现,并分析了它们在不同问题类型和领域上的能力。

这些模型表现如何呢?如下表所示,整体表现可以总结为一个字:差。


从 GPT-4o 到 DeepSeek-R1,当前最佳的模型的准确度表现都 没能超过 10% 。目前官网也已经更新了 o3-mini 的成绩,其中 high 版本能达到 13%


OpenAI CEO Sam Altman 还表示 o3-mini-high 如果使用 Deep Research ,则其在 HLE 上的准确度更能倍增至 26.6%


该团队表示:「如此低分的部分原因是设计使然 —— 数据集收集过程试图过滤掉现有模型可以正确回答的问题。然而,我们在评估时注意到,这些模型的准确度也都不是零。这是由于模型推理中固有的噪声 —— 模型可能会不一致地猜对正确答案,或者猜中多项选择题答案的概率低于随机。」因此,这些模型在该数据集上的真正能力底线仍然是未知的,接近零准确度的微小变化并不能有力地表明进展。






请到「今天看啥」查看全文