专栏名称: Z Finance
我们相信认知能够跨越阶层,致力于为年轻人提供高质量的科技和财经内容。
目录
相关文章推荐
sven_shi  ·  消失的中产 -20250222062317 ·  昨天  
湖北工信  ·  “建成支点 百场千项” | ... ·  昨天  
湖北工信  ·  “建成支点 百场千项” | ... ·  昨天  
南京市场监管  ·  在菜场碰到这个“码”,记得扫! ·  2 天前  
南京市场监管  ·  在菜场碰到这个“码”,记得扫! ·  2 天前  
山西省生态环境厅  ·  省生态环境厅选送作品入围中国正能量网络精品~ ... ·  2 天前  
新华网财经  ·  美团,跟进 ·  2 天前  
新华网财经  ·  美团,跟进 ·  2 天前  
51好读  ›  专栏  ›  Z Finance

速递丨成本仅50美元!李飞飞团队复刻媲美DeepSeek R1的AI推理模型

Z Finance  · 公众号  · 科技自媒体  · 2025-02-06 17:11

主要观点总结

本文报道了李飞飞等AI研究人员以不到50美元的成本成功训练了一个名为s1的AI推理模型,该模型表现与前沿推理模型如OpenAI的o1和DeepSeek的R1相似。文章介绍了模型的训练方法,包括蒸馏过程、数据集和代码的公开。同时讨论了AI模型商品化的问题,引发了关于AI领域创新的思考。文章还提到了大型AI实验室对此的反应以及s1模型的特点和优势。

关键观点总结

关键观点1: AI推理模型s1的成功训练

研究人员以不到50美元的成本训练了一个名为s1的AI推理模型,其表现与前沿模型相当。

关键观点2: 模型的训练方法和特点

s1模型通过蒸馏方法从Google的Gemini 2.0 Flash Thinking Experimental模型获得,使用了监督微调(SFT)过程。研究人员创建了一个包含精心挑选问题的数据集进行训练。

关键观点3: AI模型商品化的问题

文章引发了关于AI模型商品化的讨论,指出了大型AI实验室对此的反应以及AI模型的“护城河”问题。

关键观点4: s1模型的优势和应用

s1模型在测试时展现出强大的推理性能和“测试时扩展”能力。研究人员使用巧妙技巧让s1检查自己的工作并延长“思考”时间,以提高答案的准确性。

关键观点5: AI领域的投资和未来展望

Meta、Google和Microsoft计划在AI基础设施上投资数千亿美元,推动AI创新。蒸馏方法虽然有效,但不能创造出远超现有模型的新AI。


正文

根据Tech Crunch报道, 李飞飞等斯坦福大学和华盛顿大学的AI研究人员的一篇新研究论 文表示,他们成功地用不到50美元的费用训练了一个AI推理模型。

这个名为s1的模型,在测量数学和编码能力的测试中,表现与最前沿的推理模型(如OpenAI的o1和DeepSeek的R1)相似。 s1模型已经在GitHub上发布,并附带了训练它所用的数据和代码。

s1背后的团队表示,他们从一个现成的基础模型开始,然后通过蒸馏(distillation)对其进行微调,这是一个从另一个AI模型中提取“推理”能力的过程,通过训练其答案来实现。

研究人员表示,s1是通过蒸馏Google的推理模型——Gemini 2.0 Flash Thinking Experimental模型获得的。蒸馏方法与伯克利研究人员上个月以约450美元创建AI推理模型的方式相同。

对于一些人来说,几位没有数百万美元资金支持的研究人员仍能在AI领域进行创新的想法令人兴奋。但s1也引发了关于AI模型商品化的真正问题。

如果有人能够以相对便宜的成本复制一个价值数百万美元的模型,那么AI模型的“护城河”在哪里?

不出所料,大型AI实验室并不高兴。OpenAI指责DeepSeek不当利用其API数据进行模型蒸馏。

s1的研究人员希望找到一种最简单的方法,以实现强大的推理性能和“测试时扩展”(test-time scaling),即让AI模型在回答问题前多思考一会儿。 这些都是OpenAI的o1模型中的一些突破,DeepSeek和其他AI实验室已通过各种技术尝试进行复制。

s1论文建议,推理模型可以通过相对较小的数据集和一种叫做监督微调(SFT)的过程进行蒸馏,其中AI模型被明确指导去模仿数据集中的某些行为。

SFT通常比DeepSeek用于训练其与OpenAI o1模型竞争的R1模型的、大规模强化学习方法便宜。

Google通过其Google AI Studio平台提供免费访问Gemini 2.0 Flash Thinking Experimental,尽管每天有使用限制。

然而,Google的条款禁止逆向工程其模型,以开发与该公司自有AI服务竞争的产品。我们已联系Google进行评论。

s1基于阿里巴巴旗下中国AI实验室Qwen的一款小型现成AI模型,该模型可免费下载。为了训练s1,研究人员创建了一个包含1000个精心挑选问题的数据集,并且每个问题都附有答案和Google的Gemini 2.0 Flash Thinking Experimental模型的“思考”过程。

研究人员表示,在使用16台Nvidia H100 GPU进行训练的不到30分钟时间里,s1在某些AI基准测试中表现出色。参与该项目的斯坦福大学研究员Niklas Muennighoff告诉TechCrunch,他今天大约花20美元就能租到所需的计算资源。

研究人员还使用了一个巧妙的技巧,让s1检查自己的工作并延长“思考”时间:他们告诉它等待。在s1的推理过程中加入“wait”一词帮助该模型得出略微更准确的答案,论文中提到。

2025年,Meta、Google和Microsoft计划在AI基础设施上投资数千亿美元,这些资金将部分用于训练下一代AI模型。

这种规模的投资可能仍然是推动AI创新的必要条件。蒸馏已被证明是以低成本重新创建AI模型能力的有效方法,但它并不能创造出远超现有模型的新AI。


参考资料

[1] https://techcrunch.com/2025/02/05/researchers-created-an-open-rival-to-openais-o1-reasoning-model-for-under-50/


欢迎扫码加群参与讨论








请到「今天看啥」查看全文