专栏名称: 脑极体
你的困惑,来自于无路贴近未知。我们在技术、思想、传播的异界,贩来极限脑量下的TMT。
目录
相关文章推荐
中国舞台美术学会  ·  首期舞台化妆造型高级人才研修班即将在中国国家 ... ·  3 天前  
中国舞台美术学会  ·  关注丨北京市文化和旅游工作会:聚焦高质量发展 ... ·  3 天前  
中国舞台美术学会  ·  关注丨2025年沉浸式文旅核心趋势与实施路径解码 ·  4 天前  
中国舞台美术学会  ·  观察丨经典,在首都舞台焕新重塑 ·  2 天前  
中国舞台美术学会  ·  中国舞台美术学会第九届(第十七次)理事代表大 ... ·  4 天前  
51好读  ›  专栏  ›  脑极体

国产AI卷翻硅谷,奥特曼发文“阴阳”,类o1模型都在卷什么?

脑极体  · 公众号  ·  · 2025-01-22 14:42

正文


两个国产推理模型的发布,让全球AI圈“提前过年”了。


前两天,月之暗面推出了Kimi k1.5多模态思考模型,DeepSeek也发布了DeepSeek-R1文本推理模型,二者都在推理能力上对标OpenAI正式版o1。



不到两个月,国产推理模型就实现了对OpenAI o1满血版(2024年12月上线)的对标,而且与OpenAI藏着掖着的技术秘诀不同,两家中国公司双双公开了他们的特色技术道理: DeepSeek R1的极高性价比,kimi k1.5原创技术long2short 高效思维链+原生多模态。


因此Kimi/DeepSeek“双子星”一夜卷翻硅谷,技术报告paper一放出,就吸引了大量海内外同行的关注和解读,在github的热度飙升。



目前来看,海外同行的反馈以振奋为主流。比如Answera公司的创始人保罗·库弗特(Paul Couvert)就感叹,两款中国o1同日发布,(中国AI)追赶速度越来越快了!



当然,自然也少不了“泼冷水”的。


OpenAI CEO奥特曼在社交媒体说,“twitter hype is out of control”(推特上的各种炒作已经失控了)。他认为外界猜测的“AI即将取代大部分中层岗位”(主要靠推理模型)过度夸大了。希望大家冷静下来,把期待值降低100倍(cut your expectations 100x)。



或许有人好奇,国产推理模型真的崛起了吗?大模型技术如何从“规模扩展”发展到“推理扩展”?对于推理模型这个路线,我们到底该保持兴奋还是冷静一下?本文就来给大家一一解读。



两个中国AI公司的新模型,吸引了全球海内外同行的高度关注。原因很简单,推理模型太火了。


2024年第四季度,出现了reasoning model的新形态LLM,采用思维链进行“慢思考”,在推理阶段投入更多计算(推理拓展思路),这种创新带给大模型超前的推理能力,可以减少幻觉,提高可靠性,处理更为复杂的任务,达到人类专家/研究生级别的智能,被认为是规模拓展Scaling Law撞墙后最具潜力的新技术。


o1系列之后,头部模厂都开始向“慢思考”的推理模型技术路线投入,包括大厂谷歌、百度、阿里、科大讯飞、夸克,以及AI六小虎中的智谱、DeepSeek、阶跃星辰等,此前也都推出过准o1的推理模型,但一直没有全面对标正式版o1的国产推理模型。


要证明国产推理模型的崛起,有两个前提条件 :一是经得起全球同行的审视;二是具备原创能力而非简单跟随,全面对标而非部分达标。


目前来看,Kimi k1.5/ DeepSeeK R1达到了上述条件。


Kimi k1.5/ DeepSeeK R1首次真正对标了正式版o1,取得了SOTA成绩。 其中,k1.5还是国内首个多模态o1,同时支持文本和图像推理。这在全球推理模型领域都是比较亮眼的成绩。


而且,不同于OpenAI o1藏着掖着的风格,Kimi和DeepSeeK都发布了详细的技术报告,分享模型训练技术的探索经验,立刻在海外AI圈掀起了解读论文的热潮。


比如英伟达的研究科学家第一时间开扒,得出的结论是,Kimi和DeepSeeK的研究“振奋人心”。



作为当前AI领域最主流的叙事和技术高地,推理模型的风吹草动,都会引发全球从业者的目光。而中国公司一口气在推理模型赛道上,拿出两个重磅论文,模型含金量高,经过了目光聚焦且严苛的审视,其中还包含很多原创技术。


可以说,从Kimi k1.5/ DeepSeeK R1的“双子星”开始,国产推理模型是真的崛起了。



推理模型,国内AI公司是怎么追赶的?我们和海外AI圈一起“黑着眼眶熬着夜”,苦读kimi/ DeepSeek论文,简单总结一下:


总路线上,k1.5和R1都使用了强化学习(RL)技术,来提升模型推理能力。但在技术细节上,kimi/ DeepSeek都拿出了全新的思路。


DeepSeek没有采用业界普遍的监督微调(SFT)作为冷启动的方案,提出了一种多阶段循环的训练方式,用少量冷启动数据,微调模型作为强化学习的起点,然后在RL环境中通过奖励信号来自我进化,实现了非常好的推理效果。



Kimi k1.5则首创了long2short思维链 ,让LLM通过奖励机制进行探索性学习,自主扩展训练数据,来扩展上下文长度,从而优化RL训练表现,在短链思维推理方面取得了SOTA成绩。



性能最强的long-CoT版本Kimi k1.5,数学、代码、多模态推理能力可以达到长思考SOTA模型OpenAI o1正式版的水平。


基于long-CoT版本简化的short-CoT,性能依旧强悍,但推理更加高效,大幅超越了全球范围内短思考SOTA模型GPT-4o和Claude 3.5 Sonnet的水平,领先达到550%。



除此之外,两大国产推理模型还各有亮点。


DeepSeek-R1延续了“AI界拼多多”的优秀传统 ,API每百万输出tokens 16 元,与o1每百万输出tokens 60美元的定价一比,性价比拉满。


Kimi k1.5则是OpenAI之外,首个达到o1多模态推理性能的模型, k1.5支持文本、图像交叠的多模态输入,可以进行联合推理,填补了国内多模态思考模型的空白。


在人类的感官中,视觉信息占比超过70%,有了多模态能力,认识自家的Benchmark图表自然不在话下。



众所周知,o1要么用起来贵(200美元每月的订阅费),要么根本用不上(OpenAI不向国内提供服务)。因此,国产推理模型的上述亮点,带给海内外AI开发者的价值不是一般大,很多开发者都倍感兴奋。


一位开发者在论坛感叹,这两个中国实验室“用更少的资源做更多的事情,他们对模型效率和精炼的巨大关注,造福我们所有人”。



Amarok开发者Mark Kretschmann也在社交媒体上不吝褒奖,直呼k1.5是“多模态AI领域的重大突破”。



可以看到,面对“推理拓展”这个全新技术领域,中国AI“双子星”靠原创硬实力稳稳拿下,并走出了一条有别于OpenAI的发展创新之路。



OpenAI奥特曼建议大家放低预期,那么,中国AI公司发力推理模型,价值究竟有没有、有多大?


对于中国AI公司来说,点亮推理模型的技术版图,有两方面的意义:


一是仰望星空,可以拉近中美AI的技术距离。 大模型的领先不会从天上掉下来,而是日拱一卒、水滴石穿的努力,保持对最新技术路线的跟进,能让中国AI的水平快速提高。对标ChatGPT用了半年左右,而对标正式版o1只用了不到三个月。


以Kimi为例,去年11月推出k0-math数学模型,12月发布k1视觉思考模型,今年1月发布k1.5多模态思考模型,三个月三次迭代,进化速度极快。说明对天花板技术的贴身跟进,是中国AI最快最好的练兵场。







请到「今天看啥」查看全文