国产大模型在春节期间的一轮轮产品更新,终于让OpenAI坐不住了。
北京时间2月1日,OpenAI加急上线了o3-mini新推理模型,且首次向ChatGPT免费用户开放。
来自国产大模型的这波竞争压力,甚至重新让部分海外同行担忧起美国AI的竞争力问题。
近期,前OpenAI高管、AI初创巨头Anthropic创始人达里奥·阿莫迪 (Dario Amodei),罕见发布了一篇万字长文。在肯定DeepSeek-R1模型在特定基准测试中已逼近美国顶尖水平之外,阿莫迪认为DeepSeek的突破,更加印证了美国对华芯片出口管制政策的必要性和紧迫性。
而这轮国产AI力量中,在DeepSeek发布DeepSeek-R1模型的几乎同一时间,月之暗面也推出了Kimi k1.5新模型。
上述两款推理模型,均全面对标OpenAI o1完整版。其中,Kimi k1.5凭借同时支持文本和视觉推理的特性,成为首个可以比肩o1完整版水平的多模态模型。
尽管OpenAI展现了下一阶段大模型的技术演进路线,但直到DeepSeek-R1和Kimi k1.5发布之前,国内一众大模型厂商均尚未推出能够对标OpenAI o1完整版的模型。它们的出现,成了国产大模型攻破OpenAI技术黑匣子的又一次实力展示。
更重要的是,相比OpenAI o1模型付费使用的限制,无论DeepSeek-R1,还是Kimi k1.5,都支持用户免费无限调用。
堪比OpenAI o1完整版的模型性能,加上免费调用的差异化竞争优势,DeepSeek-R1和Kimi k1.5新模型,成了春节期间国内大模型对OpenAI发起突然袭击的两把尖刀。
借助春节舞台,完成某种后来居上式的战略调整,已演变为中国科技公司的保留节目。
2014年春节前夕,微信首度推出红包功能,未能掀起太多水花。转折发生在2015年,借助与春晚合作,斥资5亿元推出“摇一摇”红包的微信,在除夕当天使得微信红包收发总量超10亿次,并在2天内完成了支付宝此前花费10年完成的工作——2亿张银行卡绑定。
微信红包的此番逆袭,后来被马云在阿里内部称为是对支付宝的一场“偷袭珍珠港”,并促使阿里在2016也开始重金赞助春晚,通过“集五福”的形式大撒红包。
现在,被DeepSeek-R1和Kimi k1.5新模型突袭过后的OpenAI,也不得不调整了自己的新品发布节奏。
在国产大模型的快速技术迭代和模型性能追赶压力之下,即便是OpenAI,恐怕也受不了几次这样的突袭了。“我们会开发出更好的模型,但我们不会像往年那样保持那么大的领先优势了。”OpenAI CEO奥特曼在o3-mini发布后的问答环节中说道。
DeepSeek-R1和Kimi k1.5新模型一经发布,便在海外用户群中引发热议。
英伟达AI科学家Jim Fan第一时间发帖总结两大模型的相似之处,认为两者都简化了强化学习框架,同时提升了推理性能和效率,并评价两家公司所发表的技术论文,都堪称“重磅”级别。
伯克利人工智能博士,Huggingface机器学习科学家Nathan Lambert、科技大V AK等也纷纷试用kimi,还有不少业内人士对这两款来自中国的产品进行了测评。
与DeepSeek-R1一样,Kimi k1.5新模型同样展现出了详细的思考过程。
北京时间1月31日,苹果发布了新一季度财报,以此为契机,选中Kimi k1.5推理模型,输入提示词“写一篇苹果财报分析稿,其中尤其要关注中国市场的变化,以及苹果AI何时在国产iPhone中上线的情况”。
经过一段时间思考,Kimi给出了苹果2025财年第一财季的业绩报告数据,并特意指出其中大中华区营收为185.13亿美元,同比下降11%。
除了给出联网参考的94个网页信息之外,Kimi还列出了自己的详细思考过程。
如果将大模型看作一个数学家,没有加入推理功能之前,大模型在证明了一个新的定理,或者解了一道新的数学题时,只会把答案写出来,不会把思考的过程写出来。但是,有了推理功能的加入,现在大模型就可以把原本只存在于数学家个人头脑中的思考过程,给尽可能完整呈现出来。
Kimi k1.5推理模型的思考过程,颇有点“授人以鱼不如授人以渔”的作用,将其用来指导学生学习,或者辅助程序员编写代码等,都有了更强的实际用途,大模型从有用,逐渐变得真正好用起来。
更重要的是,相比DeepSeek-R1,Kimi k1.5还是OpenAI之外首个实现o1完整版水平的多模态模型。
在Kimi k1.5推理模式下,上传一张苹果最新一季财报的数据图表,并给出提示词“给出图中大中华区的营收情况,以及同比变化,并分析大中华区营收占比”。
Kimi不仅读懂了图片中的营收数字,还通过列出数学公式的方式,准确算出了大中华的营收同比下降了11%,且营收占比也从去年同期的17%,下降至今年的15%。
杨植麟曾在一次采访中解释道,长文本就是某种意义上的长推理,“如果我们想让AI从完成一两分钟的任务变成完成长周期的任务,那必然要在一个很长的context(上下文)里,才有可能真正把AI进一步往下推进。”
加入图片识别等多模态功能,在某种程度上也可以看作是对长文本准确率的一种提升,这种提升,未来还可能随着无损压缩视频多模态的融入,变得更加强大。
对人才的重视和培养,成为DeepSeek和月之暗面能够率先做出对标OpenAI最新模型o1的共性之一。
在DeepSeek目前约150人左右的团队中,大多是一帮Top高校的应届毕业生、没毕业的博四、博五实习生,以及一些毕业才几年的年轻人。
从2023年初成立至今,月之暗面更是长期被视为中国大模型创业公司中,技术人才密度最高的玩家之一。
在Kimi k1.5中,月之暗面团队找到了一种提升推理效率的原创技术,即Long2Short高效思维链。
在o1模型中,OpenAI一般依赖于逻辑链条(Chain-of-Thought,CoT)来逐步推导出解决方案,这是一种用时间换取精准答案的方法。
月之暗面团队开发的long2short技术途径,把长思维链(复杂的推理过程)的推理结果“教给”短思维链(简单高效的推理过程),两者进行合并,最后针对“短模型”进行强化学习微调,从而达到提升token利用率以及训练效率的目的。
在Short CoT(短文本)模式下,Kimi k1.5的能力同样大幅领先GPT-4o和Claude 3.5,领先幅度高达550%。
良好的产品使用体验正在给Kimi带来用户量的增长。根据SimilarWeb 2024年12月的数据,Kimi在web端排名全球前五,仅次于ChatGPT、Google Gemini、Claude和Microsoft Copilot。
在DeepSeek和Kimi们的突袭之下,来自OpenAI等对手的一轮新竞争,已经在赶来的路上。
奥特曼预告中的OpenAI 新模型o3-mini紧急上线,甚至新一代高级语音模型也发布在即,为了在追求AGI道路上走得更快,奥特曼更是联手软银孙正义,搞起了5000亿美元的算力开发大计划。
可以预见,追赶的压力,或许很快便会再次来到国产AI们的头上。
但通过DeepSeek-R1和Kimi k1.5新模型的这番突袭,一个值得关注的新变动是,国产大模型正在向外界越来越多地证明其自主创新能力,甚至不排除有一天完成对OpenAI的真正超越。
近期,Meta首席AI科学家杨立昆(Yann LeCun)在达沃斯“技术辩论”会议上再次提醒道,“我认为当前LLM(大语言模型)范式的生命周期相当短,可能只有三到五年。五年内,任何清醒的人都不会再使用它们了,至少不会作为AI系统的核心组成部分……我们将看到一种新的AI架构范式的出现,它可能不会有当前AI系统的那些局限性。”
对于任何立志于实现AGI的大模型玩家而言,追赶OpenAI都绝不是公司成立的初衷和目标,OpenAI与国产大模型之间的差距,正在逐渐缩小已是不争的客观现实。
斯坦福大学计算机科学系客座教授、谷歌大脑联合创始人吴恩达(Andrew Ng)近期发文指出,DeepSeek的讨论让许多人认识到一些显而易见的重要趋势,其中之一便是中国在生成式AI领域正赶超美国。
2022年11月ChatGPT刚刚推出之际,美国在生成式AI领域远远领先中国,这一领先差距被业内认为在2-3年之间。但经过两年发展,OpenAI对国产大模型的领先优势已经被收缩到6个月。
通过Kimi、DeepSeek等模型的持续突破,“中国企业展现出强大的创新能力,在视频生成等特定领域甚至已经实现了局部领先。”吴恩达点评道。
国产大模型在技术上的快速迭代能力,甚至引得奥特曼在o3-mini的问答环节中,也不得不正视道,OpenAI的领先优势不会再像往年那么大了。
归根结底,大模型所蕴藏的无限技术创新空间,为国产大模型玩家们,在打造产品差异化方面提供着无限机遇。
更广阔的AI创新前景,也将孕育出更多国产大模型的奇袭时刻。
欢迎在评论区留言~
如需开白请加小编微信:dongfangmark