随着“XXX接入DeepSeek”的消息如雪花般飞来,很多人开始用“All in DeepSeek”来描述这段时间AI产品的发展。
但接入DeepSeek,不等于All in DeepSeek。
腾讯选择全线接入DeepSeek,是以当下为节点,不计沉没成本,接入当前用户需求最大、效果最优、反响最好的外部大模型。在当下,这一选择是DeepSeek,如果在未来,月之暗面或是智谱AI研发出效果更优、用户需求更大的开源深度思考模型,腾讯或许也会进行替换。
阿里和百度选择主营业务侧接入,则是希望能尽快在产品侧提供服务的最佳状态,但仍希望给自研大模型产品争取更多空间。
而字节面对接入DeepSeek 问题时的自信,则向外释放出了积极信号。
根据晚点报道,在2月13日进行的All Hands全员会上,CEO梁汝波认为字节没有重视长链思考模型,没有第一时间完成复现,是去年需要反思的决策。而2025年,字节AI团队的重要目标是“追求‘智能’上限”。
大厂之外,月之暗面也做出了跟字节相似的选择。最新发布的Kimi k1.5模型同样具备长思考能力,Kimi 成员Flood Sung在复盘Kimi k1.5的文章中提到,团队在用RL(强化学习) 训练 LLM(大语言模型) 通过 Long-CoT(Long-chain of thought) 做题时,放弃奖励生成过程的PRM模型,转而只奖励结果。“不管模型中间做错了什么,只要不是重复的,那么最后模型做对了,我们就认为这是一个好的探索,值得鼓励。反之,如果模型一顿探索,最后做错了,那么再努力也是错,要惩罚。”
在实践过程中,Kimi团队发现了与DeepSeek团队类似的现象,即强化学习下,模型会随着训练提升表现而不断增加长思考的token数,产生涌现。
回到最初的起点,DeepSeek如何看待大厂纷纷接入自己的模型,“分走”自己的DAU?
梁文峰或许乐见其成。
从选择开源的那一刻起,DAU就注定只能成为DeepSeek 模型能力的测量仪,而不是能赚到多少钱的计价器。大量用户的涌入,也会带来过载的服务器,高昂的成本,和“服务器繁忙请稍后再试”的无响应。一直到今天,DeepSeek的API服务充值仍处于暂停状态。