今天是龙年的倒数第二天,也是龙年最后一个工作日。
以往的年末,大家逐渐进入过年的气氛里,休息,总结,放松,过年。
今年的年末,却全然不是这幅景象。
DeepSeek R1 成为了现象级的行业焦点,没有人可以忽视它的光芒。
就在刚刚,DeepSeek 冲到了美国区 App Store 第一名。
而排在第二名的是 OpenAI 的 ChatGPT。
这张截图所代表的,是龙年最有历史意义的一个时刻。
DeepSeek 这家有些神秘的公司,注定将成为龙年最精彩的句点。
而我将在这里告诉大家我所知道的关于 DeepSeek R1 的一切。
口碑爆棚,冲向第一
DeepSeek 不仅拿下了 App Store 美国区的第一名,还拿下了中国区第一名。
超越了字节系的豆包和红果,和其他所有应用。
要知道,这是春节前,各家大厂投放集中撒币投放的阶段。
了解这家公司的人都知道,DeepSeek 没有市场部,也没做任何市场投放。
网上出现了一些质疑的声音:这家公司为什么买了这么多水军,到处都在尬吹?
但事实并非如此,这根本不是尬吹,也没有什么水军。
真实的情况,两个字,简简单单:
口碑。
冲刺,靠自己的技术实力,冲到技术最前沿,和 OpenAI 齐头并进。
开源,把行业认知整体拉齐。
然后,得到全世界的尊重和喜爱。
冲破 OpenAI 的阴影
从 ChatGPT 的发布,到现在的两年间,没有一家公司不是活在 OpenAI 的阴影里。
连去年大火的 Claude,在 B 端偷偷吃掉了 OpenAI 10% 的客户之后,也未曾冲到过美国 App Store 排行榜的前十。
而现在,一切都变了。
这一切变化,都要从七天前说起,那天晚上 DeepSeek R1 发布。
来自中国团队的开源模型,R1 效果比肩顶尖闭源模型 o1,而价格却只要其27 分之一。
彻底打破了推理模型价格昂贵的固有印象。
详见文章:
一天两个大新闻,还过不过年了
这个模型不光是指标好,在实际的 AI 编程中效果也非常好。
详见文章:
当 AI 编程遇上 DeepSeek R1
论文里的革命性发现
之后的两天,大家开始看 DeepSeek R1 的论文,发现了一个更神奇的模型 R1 Zero。
R1 Zero 模型创新性地跳过了监督微调 (SFT) 阶段,直接采用强化学习 (RL) 进行训练,这种近乎原始野性的自进化方式,却取得了媲美顶尖模型的效果,令人惊叹。
R1 Zero
模型虽然因为一些原因没有被公布出来,但它的研究结论却是革命性的:
模型的思考能力是可以自我涌现出来的。
在 DeepSeek-R1-Zero 的训练过程中研究员观察到的一个特别有趣的现象,那就是“顿悟时刻”的出现。
如图所示,这个时刻发生在模型的中间版本中。在这个阶段,DeepSeek-R1-Zero 通过重新评估其初始方法,学会为问题分配更多的思考时间。
「等等,等等。等等。这是我可以标记的一个顿悟时刻。
让我们逐步重新评估,以确定是否可以得到正确的总数 · · ·」
研究员激动地写道:“该模型学会使用拟人化的语气重新思考。这对我们来说也是一个顿悟的时刻。也
让我们见证了强化学习的力量和美丽。
”
X 上的一位之前曾在 Meta Google 做 AI 研究的朋友 Eric Xu ,这样这样评论 R1 Zero 的革命性:
这是一项有哲学意义的工作:思考(或者说意识)真的是一个涌现现象,不是人类特有的,是模型通过针对一个奖励函数学习就能完成的。
这是往 AGI 上重要的一步
我们也可以相信,未来 R1 Zero 这样的纯 RL 模型一定有一天会出来,并且也许会成为未来的新范式。
所以我专门写了一篇文章,向所有人强烈推荐这篇只有 22 页的论文。
详见文章:
自学成才之路,DeepSeek R1 论文解读
开源的胜利
如果说 DeepSeek R1 的发布,意义重大,它证明了 OpenAI 是可以被超越的。
那 DeepSeek R1 的开源,意义就更大了。
它让几乎每家模型公司都可以复现 R1 的方法,并且都有机会超越 OpenAI。
著名投资机构 A16z 的创始人之一 Marc Andressen 评价 R1 ,说它是对世界的珍贵的礼物。
这是开源对闭源的历史上,又一次胜利。
算力限制下的突围
在这次的开源的伟大胜利中,中国的研究员,发挥了至关重要的作用。
在马斯克构建庞大的十万卡集群的时候,DeepSeek V3 仅仅使用了 2048 张卡。
在算力资源紧张,甚至面临算力出口限制的背景下,DeepSeek 的成绩更显得弥足珍贵。
它证明了,即使在资源受限的环境下,中国AI依然能够通过创新和开源,做出世界一流的成果。
中国的AI研究,依然可以为全球AI的发展贡献力量。
为何是 DeepSeek ?
DeepSeek 是相对神秘的一家公司。
在此之前,大家的注意力更多地聚焦在六小虎身上。
大家对 DeepSeek 的了解,大部分源于暗涌的访谈。
文章链接:
中国的AI不可能永远跟随,需要有人站到技术的前沿
能够与 OpenAI 齐头并进的,为什么会是 DeepSeek?
也许我们能从 DeepSeek CEO 梁文锋的访谈中略微看出一二:
这个世界存在很多无法用逻辑解释的事。
如果我们非要去解释,也许可以从中总结为两点:
-
DeepSeek 靠组织和文化吸引了有才华的年轻人
-
DeepSeek 靠开源开放吸引了社区的贡献者
那为什么 DeepSeek 能够吸引到这些年轻人和贡献者?
我翻出了去年去杭州和 DeepSeek 交流后所记录下来的笔记,也许也是一个注脚。
DeepSeek R1 对世界的影响
DeepSeek R1 发布两天后,竟然引发了美国科技界的恐慌情绪。
据 Meta 员工在匿名社交平台Teamblind爆料,DeepSeek V3 的出色表现已经让 Meta 内部感到震惊,仅花费550万美元训练成本的模型,性能却超越了Llama 4。
Meta全公司上下都在深入分析V3的技术细节,然而紧随其后的R1发布,更是让Meta感受到了前所未有的压力。
Sam Altman 被迫调整定价策略
第二天,x 上开始有人怀疑 DeepSeek 故意定价这么低,是为了降低 OpenAI 的利润,号召大家不要上钩。
还好美国科技圈大部分还是理智的,有人说R1是开源模型,自己跑一下就知道,它的成本还真就是这么低。
至于 OpenAI,20美金的月会员,一个月只能用200次 o1。
而 DeepSeek R1,同等水平,无限量,免费用。
面对这种情况,美国人也疯狂了。
从斯坦福到麻省理工,DeepSeek R1 都成了研究员的标配。
在英国的帝国理工,DeepSeek 也越来越火。
Sam Altman 急了,宣布即将推出的 o3-mini 可以免费使用,并且 Plus 可以大量使用。
而评论区,则是纷纷对 DeepSeek 表达谢意。
英伟达,或将面临一些冲击
DeepSeek V3 仅用了 2048 张 H800 就完成了训练,这种效率提升使市场质疑未来是否需要大规模采购英伟达高端GPU,导致英伟达股价短期内大跌超3%,市值蒸发超300亿美元。
训练侧似乎并不需要十万卡集群,那推理侧呢?
DeepSeek R1 因为其高性能,可以部署在华为昇腾上,据说很快就会上线。顶级的自研开源模型+自主可控的硬件,就这样终于闭环了。
一直以来在GPU市场与英伟达竞争的AMD,也迅速宣布对DeepSeek R1和V3模型提供支持。
DeepSeek R1论文中还提到了一个值得关注的细节,即通过R1模型蒸馏得到的小模型,其性能也显著超越了同级别模型,这充分展现了端侧模型的巨大潜力。