先说下,我们昨天在公众号和星球都说了
Deepseek 3000万DAU
,不同渠道验证了下,没毛病。数据还在涨,而且没算外围间接用户。这说明一件事:
中国依然是那个最大的to C市场
,互联网这样,AI应用依然是这样。而与之前互联网不同的是,今天的中国AI
从一开始就主动或被迫的选择了
出海
,做“全球”市场。如下图Deepseek的全球分布。因此Deepseek靠了一些hype热潮就达到了接近ChatGPT一半DAU,不奇怪,也不用质疑,中国广大user base在那里摆着呢。因此
中国诞生一系列AI超级应用是非常确定的事
,模型“地基”瓶颈解决了,土壤又足够肥沃,迟早的事情。
另外转发下
拾象李广密团队
针对DS之后的一些前瞻判断:
1. DeepSeek 超越了 Meta Llama 毫无疑问,但相比 OpenAI、Anthropic 和 Google 这些第一梯队 players 还有距离。比如 Gemini 2.0 Flash 成本比 DeepSeek 更低,能力也很强,且全模态,外界低估了 Gemini 2.0 为代表的第一梯队的能力,只是没有开源而获得这么炸裂轰动性的效果。
DeepSeek 很让人兴奋,但还不能称作范式级创新,更准确的表述是开源了之前OpenAI o1 半遮半掩的秘密,将整个生态推向很高渗透率。
如果说 OpenAI 最初发布的 o1 是给行业出了一个谜语,DeepSeek 就是第一个公开解谜的人。
DeepSeek 发布 R1 和 R1-zero 之前,行业只有少部分人在实践 RL 和 reasoning model,但 DeepSeek 给大家指明了路线图,让行业相信这样做真的能提升智能,这对提升信心,吸引更多 AI researcher 转向新范式的研究有巨大的帮助。
另外,reasoning model 的提升会
进一步帮助 agent 落地
,AI researcher 现在都因此对 agent 的研究和探索更有信心,因此也可以说 DeepSeek 开源 reasoning model 推进了行业向 Agent 的进一步探索。
从第一性原理角度,在 Transformer 这一代架构下超越第一梯队模型厂商是有难度的。
今天更期待有人能探索出下一代的智能架构和范式。
2. Anthropic 的技术路线和 R1 有什么不同?Dario觉得 base model 与 reasoning model应该是个连续
光谱
,而非 OpenAI 这种独立的模型系列。如果只做 O 系列会很快遇到天花板。为什么 Sonnet 3.5的coding、reasoning 和 agentic能力一下子提升这么强,但 4o 一直没追上?
可能他们在 pre training base model 阶段就做了大量 RL 工作
,核心还是把 base model 提上去,不然只靠 RL 提升 reasoning model 可能很容易把收益吃光。
3. 谁受伤?谁受益?分 3 类:ToC、To Developer 以及 To Enterprise( to Government)。
ToC:Chatbot 肯定受冲击最大,心智和品牌关注度被 DeepSeek 抢走了,ChatGPT 也不例外;to B影响很有限,我们看到有开发者用完之后评论 r1 不好用不如 sonnet,Cursor 官方也说 Sonnet 还是 outperform,用户并没有大幅迁移;第三个维度,To Enterprise 和 To Government 的生意在于信任和需求理解,大型组织做决策的利益考虑很复杂,不会像 C 端用户那么容易迁移。
中长期看,
GPU 资源充裕的公司还是受益的
,一方面是第二梯队的 Meta 可以快速跟进新方法,Capex 更加 efficient,Meta 可能是很大受益者,另一方面是智能提升还需要更多探索,DeepSeek 开源把大家水平拉齐
,进入全新探索又需要 10 倍甚至更大量级的 GPU 投入。