DeepSeek春节爆火出圈,引发全球关注中国AI。国内AI圈可谓是热闹非凡,DeepSeek这匹"黑马"在全球掀起了一波又一波热议,但你可能不知道,在它爆火之前,还有一个
中国AI力量MiniMax
就已经默默在国际舞台上展示了一手"绝活"。
2025年初的中国AI圈可不只有DeepSeek一家在创造奇迹。
MiniMax和阿里的千问系列,
都在用自己的方式向世界证明:
中国的开源模型,是有真本事的
。而MiniMax更是用密集的技术创新和开源布局,给全球AI圈带来了一股清新的"东方风"。
一、比Deepseek还要早的开源远见
其实有意思的是,在DeepSeek走红之前,MiniMax就已经率先发布了3款重量级的模型,其中语言大模型是直接开源发布,开源这一举措比Deepseek R1 还要早了整整4天!
这次MiniMax发布的文本模型,语音和视频新模型的"组合拳",一出手就引起了海外科技圈的连连惊叹。
MiniMax开源模型01系列发布后也一度被海外网友刷屏,凭借超长的长文本理解能力,MiniMax-01被海外科技媒体、投资人及研究员认为一个来自中国的可以与OpenAI“
掰手腕
”的顶尖开源模型。
要说MiniMax-01最厉害的地方,就是它那令人咋舌的长文本处理能力。
它能处理400万token的输入,这是什么概念? 比GPT-4强32倍,比Claude-3.5-Sonnet多出20倍
。在权威的longbench测评榜单上,这个"中国军团"的新成员,长文本理解能力仅次于OpenAI-o1,这成绩着实亮眼。
二、MiniMax开年的"技术三连击"
2025年刚开始,MiniMax就给大家送上了一份"技术大礼包" -
短短十天内,连发三款重量级模型
。
先是第一个: 1月10日的S2V-01视频模型,这家伙厉害了 - 只用
传统方案1%的成本,
就能做出高质量的视频。用户只要给它一张图,就能生成画面精美的视频,简直是创作者的"省心神器"。
接着是第二个"重头戏" : 1 月 15 日 MiniMax 发布的首个开源模型——MiniMax-01 系列。MiniMax-01 首次在 4000 亿以上参数的大模型中,使用了线性注意力机制新架构(标准 Transformer 是非线性注意力机制),能高效处理全球最长的 400 万 token 上下文。
还有第三个:语音模型T2A-01-HD赋予了海螺Audio更自然、这个"多语言达人"能说17种语言,还有上百种音色任选,音质清晰自然,情感表达到位,真是让人眼前一亮。
产品的亮眼表现,背后都有一个“看不见”的功臣——MiniMax对多个模态技术的不断创新,才促成了产品力的不断提升,赢得市场上的好口碑。
大家可以看看去年12月至今全球AI视频榜单,MinMax AI 大模型就是排名第一
,打败了openAI sora视频模型,非常厉害。
三、技术至上的"另类思维"
最近《晚点》采访了目前估值已超 30 亿美元的 MiniMax 创始人兼 CEO 闫俊杰,跟他访谈 3 小时。聊了 MiniMax 的新技术目标、新模型,去年一年的公司变化和人员调整,和他作为一个 “练习时长 3 年” 的初次 CEO 的自我复盘:
闫俊杰认为 long-context(长上下文)是 Agent(智能体)的重要能力,它能增强 AI 的 “记忆”。提升单 Agent 交互质量和多 Agent 之间的通讯能力。
闫俊杰复盘了认知尚不足够清晰时的一些失误:
-
“如果重新选,第一天就应该开源。因为开源能加速技术进化。”
-
海螺文本为何没做起来?——“就是没有坚持技术驱动。”
-
如何复盘 2024 年初定的增长目标未达到?——“年初定目标时,用的还是移动互联网的业务逻辑。其实这是两个行业。”
说自己不再焦虑的闫俊杰,做了一些与众不同的技术选择:这次 MiniMax-01 使用的
线性注意力机制
,不是一个强共识方向。
不知道大家有没有留意,