专栏名称: 机器学习研究组订阅
连接人工智能技术人才和产业人才的交流平台
目录
相关文章推荐
新智元  ·  百度首个自研万卡集群点亮,上架DeepSee ... ·  20 小时前  
歸藏的AI工具箱  ·  AI ... ·  昨天  
歸藏的AI工具箱  ·  AI ... ·  昨天  
爱可可-爱生活  ·  【《深入大语言模型》随书代码】 ... ·  昨天  
黄建同学  ·  学习-20250205192620 ·  昨天  
51好读  ›  专栏  ›  机器学习研究组订阅

16张H100训26分钟,超越o1-preview!李飞飞等用1K样本,揭秘测试时Scaling

机器学习研究组订阅  · 公众号  · AI  · 2025-02-06 19:23

主要观点总结

该文章介绍了来自斯坦福大学、华盛顿大学、Ai2等机构的研究人员发表的论文「s1: Simple test-time scaling」,该论文展示了通过简单的预算强制技术,仅使用1000个样本进行训练的语言模型在测试时扩展和强推理性能方面的优势。文章详细描述了s1K数据集的创建过程、测试时扩展方法的核心思想以及预算强制技术的实验验证。此外,文章还介绍了消融实验的结果以及未来的研究方向。

关键观点总结

关键观点1: 研究背景

许多模型通过强化学习和大量样本构建推理模型,但s1模型证明仅使用1000个样本进行微调就能构建竞争力强的推理模型。

关键观点2: s1K数据集的创建

s1K数据集包含1000个高质量、多样化和高难度的问题,并附带推理过程,是训练s1-32B模型的关键。

关键观点3: 测试时扩展方法的核心思想

通过增加测试时的计算量来提高语言模型的性能,分为顺序扩展和并行扩展,其中预算强制是一种有效的顺序扩展方法。

关键观点4: 预算强制技术的实验验证

预算强制技术通过控制模型思考的token数量来提高性能,实验表明其能够引导模型修正答案,提高推理性能。

关键观点5: 消融实验的结果

消融实验验证了质量、难度和多样性等数据选择标准的重要性,以及预算强制技术的优越性。

关键观点6: 未来研究方向

未来的研究可以探索改进预算强制技术,研究新的测试时扩展方法,并克服现有语言模型上下文窗口的限制。


正文

OpenAI o系列模型为何性能如此强大?
OpenAI将他们的方法描述为使用大规模强化学习(RL),暗示使用了大量的数据。
最近大火的DeepSeek-R1模型也通过使用数百万个样本和多个训练阶段使用强化学习的方式,成功地达到了o1级别的性能。
然而,至今为止没有人公开成功复现清晰的测试时扩展行为。
那么问题来了,实现测试时扩展和强推理性能的最简单方法是什么?
近日,来自斯坦福大学、华盛顿大学、Ai2等机构的研究人员发表了一篇题为「s1: Simple test-time scaling」的论文,回答了上述问题。

论文地址:https://arxiv.org/pdf/2501.19393
团队证明,仅使用1000个样本进行下一个token的预测训练,并在测试时通过一种简单的预算强制(budget forcing)技术来控制思维持续时间,就能获得一个强大的推理模型,其性能随着测试计算量的增加而提升。
预算强制(budget forcing)可以简单理解为通过强制提前结束模型的思考过程,或通过重复添加「Wait」来延长思考时间,从而影响模型的推理深度和最终答案。
这种方法可以引导模型进行自我检查,并修正推理过程中的错误,从而提高推理性能。
具体来说,他们构建了一个叫做「s1K」的数据集,由1000个精心筛选的问题组成,每个问题都配有推理轨迹(reasoning traces)和从Gemini Thinking Experimental蒸馏而来的答案。
接着团队在一个预训练模型上进行监督微调(SFT),仅使用16张H100 GPU训练26分钟。
训练完成后,使用预算强制(budget forcing)方法来控制模型在测试时的计算量:
  1. 若模型生成的推理token超过设定的上限,则强制结束推理过程,并附加思维结束(end-of-thinking)token,促使模型进入答案生成阶段。
  2. 若希望模型在问题上投入更多测试时计算资源,则抑制思维结束token的生成,并在推理轨迹中追加 「Wait」,鼓励模型进行更深入的推理探索。
基于这个简单的方法,并在1000个样本上进行SFT训练 + 测试时的预算强制(budget forcing)后,团队提出的s1-32B展现出了测试时扩展(test-time scaling)的能力。
此外,s1-32B也是目前最具样本效率(sample-efficient)的推理模型,在推理能力上超越了OpenAI的o1-preview等闭源模型。

如何创建s1K数据集


s1K数据集是一个包含1000个高质量推理问题的精选数据集。
团队创建过程主要分为两个阶段。
初始阶段,研究人员从16个不同的来源收集了59029个问题,并遵循三个指导原则:质量、难度和多样性。
这些来源包括现有的数学问题数据集(如 NuminaMATH、AIME、OmniMath 和 AGIEval),以及研究人员自己创建的概率问题集 (s1-prob) 和脑筋急转弯问题集 (s1-teasers)。
为了确保质量,研究人员检查了所有样本,并忽略了格式不佳的数据集。为了增加难度,他们选择需要大量推理努力的问题。为了确保多样性,他们涵盖了不同的领域和推理任务.
第二阶段,最终筛选1K样本。研究人员通过三个阶段的过滤,从59K样本中筛选出1000个样本,并继续依赖质量、难度和多样性这三个原则。
通过这些过程,研究人员创建了s1K数据集,该数据集包含50个不同领域的1000个高质量、多样化和高难度的问题,并附带推理过程。
这个数据集对于训练s1-32B模型至关重要。

测试时扩展方法


其核心思想是通过在测试时增加计算量来提高语言模型的性能。
论文将测试时扩展方法分为两类:顺序(Sequential)和并行(Parallel)。
顺序扩展是指后面的计算依赖于前面的计算,例如长的推理过程;并行扩展是指计算是独立运行的,例如多数投票。
论文主要关注顺序扩展,因为作者认为它可以更好地利用中间结果进行更深入的推理和迭代改进。
预算强制(Budget Forcing):通过限制模型在测试时使用的最大和/或最小思考token数量来控制计算量。
论文通过实验证明了,这种简单的方法能够引导模型修正答案。
下图这个例子中,模型最初在回答一个关于「raspberry」中 「r」的数量的问题时给出了错误的答案 「2」。
然而,通过抑制结束思考的token生成,并追加「Wait」来强制模型继续推理,模型最终意识到自己快速阅读导致了错误,并最终给出了正确的答案「3」。

测试时扩展方法


如下图所示,s1-32B模型在使用预算强制技术后,其性能会随着测试时计算量的增加而提高。
具体来说,通过增加模型思考的token数量(例如,通过追加「Wait」),模型在 AIME24 基准测试上的表现得到了提升。
然而,这种提升最终会趋于平缓,过度抑制结束思考的token会导致模型进入重复循环。
结果表明,s1-32B模型是目前样本效率最高的开源推理模型。尽管只使用了1000个样本进行微调,s1-32B的性能仍明显优于其基础模型Qwen2.5-32B-Instruct。
同时,虽然DeepSeek r1-32B模型性能更强,但其使用了800倍的训练样本。
此外,s1-32B模型在AIME24上的表现几乎与Gemini 2.0 Thinking API持平,表明其蒸馏过程是有效的。
总之,实验结果证明了s1-32B模型在测试时扩展、样本效率和推理能力方面的优势,并验证了预算强制技术的有效性。

消融实验


数据消融实验:研究人员通过以下对比实验,验证了高质量、多样性、和难度这三个数据选择标准的重要性:
  • 仅质量 (1K-random):随机选取1000个高质量样本,性能明显低于s1K,表明难度和多样性过滤的重要性。
  • 仅多样性 (1K-diverse):均匀选取各个领域样本,性能也远不如s1K,表明只关注多样性是不够的。
  • 仅难度 (1K-longest):选择推理轨迹最长的1000个样本,在GPQA上有提升,但整体不如s1K,表明难度只是一个方面。
  • 最大化数据量 (59K-full):使用所有59K样本训练,虽然性能略有提升,但训练资源消耗巨大,且提升幅度有限,说明精心挑选的少量数据比大量数据更高效。
结果表明,将质量、难度和多样性相结合是实现样本高效推理训练的关键。
测试时扩展方法消融实验:研究人员通过比较不同的测试时扩展方法,验证了预算强制的优越性:
  • Token/步骤/类别 条件控制 (TCC/SCC/CCC):这些方法都无法有效控制计算量或获得良好的扩展效果,表明仅在提示中告知模型计算量或步骤是不足的。
  • 拒绝采样 (RS):使用拒绝采样会导致性能随着计算量的增加而下降,因为更短的生成往往是模型一开始就走在正确轨道上的结果。
  • 预算强制 (BF):实验表明,预算强制在控制性、扩展性和性能方面都优于其他方法。
  • 在预算强制中,追加「Wait」能够鼓励模型进行额外的思考,从而提高性能。
下图展示了在AIME24数据集上使用s1-32B模型进行拒绝采样(rejection sampling)的实验结果,结果表明,随着平均思考时间(以token数量衡量)的增加,模型的准确率反而下降,呈现出反向扩展趋势。
更长的推理过程并不一定意味着更好的性能。 这一结果也反衬了论文提出的预算强制方法(budget forcing)的优越性,因为预算强制可以更有效地控制测试时的计算量,并促使模型进行更有目的性的思考。






请到「今天看啥」查看全文