专栏名称: PaperWeekly
PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是自然语言处理的各个方向。我们热爱知识,分享知识,希望通过我们大家的努力为自然语言处理的发展做出一点点贡献。我们每周会分享一期特定话题的论文笔记和本周值得读的相关论文。
目录
相关文章推荐
募格学术  ·  清华大学最新 Nature ·  2 天前  
研之成理  ·  澳门大学王瑞兵教授Angew. ... ·  3 天前  
研之成理  ·  华中师范大学/武汉科技大学合作,Nature ... ·  5 天前  
研之成理  ·  浙江大学杨启炜课题组Nature ... ·  3 天前  
募格学术  ·  北京物资学院通报职称评审调查结果 ·  3 天前  
51好读  ›  专栏  ›  PaperWeekly

Meta陷入恐慌?内部爆料:在疯狂分析复制DeepSeek,高预算难以解释

PaperWeekly  · 公众号  · 科研  · 2025-01-24 20:31

正文


©来源 | 机器之心



「工程师正在疯狂地分析 DeepSeek,试图从中复制任何可能的东西。」


DeepSeek 开源大模型的阳谋,切切实实震撼着美国 AI 公司。


最先陷入恐慌的,似乎是同样推崇开源的 Meta。

最近,有 Meta 员工在美国匿名职场社区 teamblind 上面发布了一个帖子。帖子提到,国内 AI 创业公司 DeepSeek 最近的一系列动作让 Meta 的生成式 AI 团队陷入了恐慌,因为在前者的低成本高歌猛进下,后者无法解释自己的超高预算的合理性。

原文如下:


这一切始于 DeepSeek-V3,它在基准测试中就已经让 Llama 4 落后。更糟糕的是那个「拥有 550 万训练预算的不知名中国公司」。 

工程师们正在疯狂地分析 DeepSeek,试图从中复制任何可能的东西。这一点都不夸张。 

管理层担心如何证明庞大的生成式 AI 组织的成本是合理的。当生成式 AI 组织中的每个「领导」的薪资都比训练整个 DeepSeek-V3 的成本还要高,而我们有好几十个这样的「领导」时,他们要如何面对高层? 

DeepSeek-R1 让情况变得更加可怕。虽然我不能透露机密信息,但这些很快就会公开。这本应该是一个以工程为重点的小型组织,但是因为很多人想要参与进来分一杯羹,人为地膨胀了组织的招聘规模,结果每个人都成了输家。



原贴链接:

https://www.teamblind.com/post/Meta-genai-org-in-panic-mode-KccnF41n


帖子中提到的 DeepSeek-V3DeepSeek-R1 分别发布于 2024 年 12 月 26 日和 2025 年 1 月 20 日。

其中,DeepSeek-V3 在发布时提到,该模型在多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。

不过,更引人关注的是,这个参数量高达 671B 的大型语言模型训练成本仅 558 万美元。

具体来说,它的预训练过程竟然只用了 266.4 万 H800 GPU Hours,再加上上下文扩展与后训练的训练,总共也只有 278.8 H800 GPU Hours。相较之下,Meta 的 Llama 3 系列模型的计算预算则多达 3930 万 H100 GPU Hours—— 如此计算量足可训练 DeepSeek-V3 至少 15 次。


而最近发布的 DeepSeek-R1 性能更猛 —— 在数学、代码、自然语言推理等任务上,它的性能比肩 OpenAI o1 正式版。而且模型在发布的同时,权重同步开源。

很多人惊呼,原来 DeepSeek 才是真正的 OpenAI。UC Berkeley 教授 Alex Dimakis 则认为, DeepSeek 现在已经处于领先位置,美国公司可能需要迎头赶上了。



看到这里,我们不难理解为何 Meta 的团队会陷入恐慌。如果今年推出的 Llama 4 没有点硬本事,他们「开源之光」的地位岌岌可危。

有人指出,其实该慌的不止 Meta,OpenAI、谷歌、Anthropic 又何尝没有受到挑战。「这是一件好事,我们可以实时看到公开竞争对创新的影响。」


还有人担心起了英伟达的股价,表示「如果 DeeSeek 的创新是真的,那 AI 公司是否真的需要那么多显卡?」


不过,也有人质疑,DeepSeek 究竟是靠创新还是靠蒸馏 OpenAI 的模型取胜?有人回复说,这可以从他们的发布的技术报告中找到答案。


目前,我们还无法确定帖子的真实性。

不知道 Meta 后续将如何回应,即将到来的 Llama 4 又会达到怎样的性能。



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·