专栏名称: Founder Park
来自极客公园,专注与科技创业者聊「真问题」。
目录
相关文章推荐
51好读  ›  专栏  ›  Founder Park

Meta推出Llama 4:MoE构架、原生多模态、10M上下文,没有发布推理模型

Founder Park  · 公众号  · 科技创业 科技自媒体  · 2025-04-06 08:58

主要观点总结

Meta公司发布了全新的Llama 4系列模型,包括Llama 4 Scout、Llama 4 Maverick和Llama 4 Behemoth。这些模型采用混合专家(MoE)架构,原生多模态训练,拥有超长的上下文窗口,并且成本相对较低。文章还介绍了这些模型的技术亮点、与DeepSeek的对比、大佬评价、训练细节以及Meta的新许可证规定。

关键观点总结

关键观点1: Llama 4系列模型的发布

包括Llama 4 Scout、Llama 4 Maverick和Llama 4 Behemoth,采用混合专家(MoE)架构,原生多模态训练。

关键观点2: 模型的技术亮点

拥有超长的上下文窗口,能在单次输入/输出交互中处理大量文本,适用于知识密集型领域。相比GPT-4o,推理成本更低。

关键观点3: 与DeepSeek的对比

Llama 4 Behemoth在某些指标上略逊于DeepSeek R1和OpenAI o1,但仍极具竞争力。其他模型如Llama 4 Scout和Maverick性能强大。

关键观点4: 大佬的评价和反馈

有大佬对模型的部署便利性表示关注,认为在消费级GPU上运行的模型更易于开源社区可及。同时,Meta的新技术如自我批判式数据筛选和训练策略也受到关注。

关键观点5: 模型的训练细节和许可证规定

介绍了模型的训练细节,包括使用FP8精度、大量GPU和Token的训练。同时,提到了Meta的新许可证规定,包括对公司规模、使用方式和名称使用的限制。


正文

请到「今天看啥」查看全文


Meta 创始人兼首席执行官马克·扎克伯格今日在其 Instagram 账号宣布推出全新 Llama 4 系列模型,其中两款——参数高达 400B 亿的 Llama 4 Maverick 和 109B 亿参数的 Llama 4 Scout——即日起可供开发者在 llama.com 及 AI 代码共享社区 Hugging Face 上下载,即刻开始使用或微调。

今天还预览了一款拥有 2 万亿参数的巨无霸模型 Llama 4 Behemoth,不过 Meta 的发布博文称其仍在训练中,并未透露何时可能发布。



按照官推的说法这次发布是对 Llama 系列的一次 彻底重新设计

先划重点:

核心变化 :Llama 4 全系采用混合专家(MoE)架构,并且是原生多模态训练,不再是 Llama 3 那样的纯文本模型了。这次发布了 Llama 4 Scout Llama 4 Maverick ,同时还有最强大的 Llama 4 Behemoth 预览

另一个特点是它们拥有超长的上下文窗口——Llama 4 Maverick 支持 100 万 token,Llama 4 Scout 更是高达 1000 万 token,分别相当于约 1500 页和 1.5 万页文本,且模型能在单次输入/输出交互中处理全部内容。这意味着理论上用户可向 Llama 4 Scout 上传或粘贴多达 7500 页的文本,并获取同等体量的反馈,这对医学、科学、工程、数学、文学等知识密集型领域尤为实用。

Meta 估计 Llama 4 Maverick 的推理成本为每 100 万 token 0.19 至 0.49 美元(采用输入与输出 3:1 的比例)。这使得它比专有模型如 GPT-4o 便宜得多,根据社区基准,GPT-4o 的成本估计为每百万 token 4.38 美元。

文章部分内容转载自「AI 寒武纪」。

Founder Park 正在搭建开发者社群,邀请积极尝试、测试新模型、新技术的开发者、创业者们加入,请扫码详细填写你的产品/项目信息,通过审核后工作人员会拉你入群~
图片
进群之后,你有机会得到:
  • 高浓度的主流模型(如 DeepSeek 等)开发交流;

  • 资源对接,与 API、云厂商、模型厂商直接交流反馈的机会;

  • 好用、有趣的产品/案例,Founder Park 会主动做宣传。


01

三种参数,MoE 模型

下面给大家第一时间做个梳理,

📌 Llama 4 Scout:

定位 :性能最强的小尺寸模型

参数 :17B 激活参数,16 个专家,总参数量 109B

亮点 :速度极快,原生支持多模态,拥有 业界领先的 1000 万+ Token 多模态上下文窗口 (相当于处理 20 多个小时的视频!),并且 能在单张 H100 GPU 上运行 (Int4 量化后)

📌 Llama 4 Maverick:

定位 :同级别中最佳的多模态模型

性能 :在多个主流基准测试中击败了 GPT-4o 和 Gemini 2.0 Flash,推理和编码能力与新发布的 DeepSeek v3 相当,但 激活参数量不到后者一半

参数 :17B 激活参数,128 个专家,总参数量 400B,上下文窗口 100 万+

性价比 :提供了同类最佳的性能成本比。其实验性聊天版本在 LMArena 上 ELO 评分达到 1417,排名第二

部署 :可以在 单个主机 上运行

📌 Llama 4 Behemoth (预览,训练中):

定位 :Meta 迄今最强模型,全球顶级 LLM 之一

性能 :在多个 STEM 基准上优于 GPT-4.5、Claude Sonnet 3.7 和 Gemini 2.0 Pro

参数 :288B 激活参数,16 个专家,总参数量高达2万亿 ( 2T

训练细节 :使用 FP8 精度,在 32000 块 GPU 上训练了 30 万亿 多模态 Token

角色 :作为 Maverick 模型进行代码蒸馏时的 教师模型


02

技术亮点解读

原生多模态 :所有模型都采用早期融合(early fusion)策略,将文本、图像、视频 Token 无缝整合到统一的模型骨干中

训练流程优化 :采用了 轻量级 SFT → 在线 RL → 轻量级 DPO 的后训练流程。开发者强调,过度使用 SFT/DPO 会过度约束模型,限制在线 RL 阶段的探索能力,所以要保持“轻量”

超长上下文的秘密 (10M+) :实现这一突破的关键是 iRoPE 架构 ('i' 代表 interleaved layers, infinite)

核心思想 :通过追求无限上下文的目标来指导架构设计,特别是利用 长度外推 能力——在短序列上训练,泛化到极长序列。最大训练长度是 256K

具体做法

  • 本地注意力层(Local Attention)使用 RoPE 处理短上下文(如 8K),可并行化
  • 全局注意力层(Global Attention)才负责处理长上下文(>8K),且不使用位置编码(NoPE 思想),这有助于提升外推能力
  • 为了解决上下文变长时注意力权重趋于平坦、影响推理的问题,在推理时对全局层应用温度缩放,增强长距离推理,同时保持短上下文性能。公式大致为: xq *= 1 + log(floor(i / α) + 1) * β (i 是位置索引)


03

超过 DeepSeek 了吗?

使用最高参数模型基准——Llama 4 Behemoth——并将其与 DeepSeek R1 初始发布时的 R1-32B 和 OpenAI o1 模型图表进行对比,以下是 Llama 4 Behemoth 的表现情况:

我们能得出什么结论?

  • MATH-500:Llama 4 Behemoth 略微落后于 DeepSeek R1 和 OpenAI o1。

  • GPQA Diamond:Behemoth 领先于 DeepSeek R1,但落后于 OpenAI o1。

  • MMLU: Behemoth 虽落后于两者,但仍优于 Gemini 2.0 Pro 和 GPT-4.5。

要点:尽管 DeepSeek R1 和 OpenAI o1 在几项指标上略胜 Behemoth 一筹,Llama 4 Behemoth 仍极具竞争力,在其类别的推理排行榜上表现位居或接近榜首。


04

大佬评价

一个遗憾 (前kaggle总裁,fast AI 创始人Jeremy Howard) :虽然感谢开源,但 Jeremy Howard 也表达了失望。Llama 4 Scout 和 Maverick 都是大型 MoE 模型,即使量化后也 无法在消费级 GPU 上运行 ,这对开源社区的可及性来说是个不小的损失。

Jim Fan(英伟达高级研究经理)

部署便利性优先 :Jim Fan 认为,对于开源模型,特别是 MoE 架构,易于部署正变得比单纯追求模型尺寸更重要。Meta 强调 Llama 4 Scout 能在单张 H100 上运行,这与 Llama-3 401B(虽然强大但采用率较低)形成对比,说明 MoE 是一个更符合当前开源策略的方向

智能调参 MetaP :MetaP这个用于智能调整训练超参数的新技术。虽然细节不多,但他猜测这可能类似于 Meta 开源的 Ax 框架 中的贝叶斯优化,能在有限的试验预算内进行自适应实验(如 A/B 测试)

后训练策略:重 RL 轻 SFT/DPO : Llama 4 的后训练策略是降低 SFT/DPO 的权重,提升在线 RL 的权重。原因是过多的 SFT/DPO 会过度约束模型,限制其在 RL 阶段的探索能力

自我批判式数据筛选 :一个有趣的技术点是,训练过程中模型较早的检查点(checkpoint)可以作为“批评家”来评估后续模型,帮助过滤掉过于简单的训练样本/提示,让模型在不断筛选和学习中变得更强

Behemoth 的训练细节与数据挑战 : Llama 4 Behemoth 的庞大规模(FP8 精度、32K GPU、30T tokens 训练)。由于模型能力太强,普通的 SFT 数据对它来说太“简单”了,因此需要裁剪掉高达 95% 的 SFT 数据,而小模型只需要裁剪约 50%

实现千万级上下文窗口的技术手段看起来“相当简单”:

  1. 1. 去除部分位置编码 :在某些注意力层(特别是全局层)不使用位置编码,借鉴了 NoPE (No Positional Embedding) 论文的思想
  2. 2. 调整 Softmax 注意力 :根据上下文的长度来调整 Softmax 注意力计算


05

写在最后

这次Llama 4的推理模型还不见踪影,这多少有点说不过去,大家觉得呢?毕竟Meta也是妥妥的大厂啊!不过Meta 表示这只是开始,后续还有更多模型,团队正在全力开发中,特别提到了 Llama 4 Reasoning 模型

另外相比于DeepSeek的MIT开源方式,Llama 4 的新许可证有几个限制:

- 每月活跃用户超过 7 亿的公司必须向 Meta 申请特殊许可,Meta 可自行决定授予或拒绝该许可。

- 必须在网站、界面、文档等处突出显示“使用 Llama 构建”。

- 使用 Llama Materials 创建的任何 AI 模型的名称开头都必须包含“Llama”

- 必须在任何分发的“通知”文本文件中包含具体的归属通知  - 使用必须遵守 Meta 单独的可接受使用政策(参考 http://llama.com/llama4/use-policy...)  - 仅出于符合品牌要求的有限许可使用“Llama”名称


参考:

https://ai.meta.com/blog/llama-4-multimodal-intelligence/

https://venturebeat.com/ai/metas-answer-to-deepseek-is-here-llama-4-launches-with-long-context-scout-and-maverick-models-and-2t-parameter-behemoth-on-the-way/



图片

更多阅读
张小珺对谈李广密:Q1 AGI热点回顾,非共识下什么才是AGI的主线?
Arc浏览器团队新品Dia一手体验:为什么最牛的AI应用开发者,都在做AI浏览器?
宇树科技王兴兴的早期故事:还原天使轮投资人当年的坚定、纠结与今天的新期望
AI医疗独角兽OpenEvidence:1/4的美国医生都在用,像互联网产品一样做AI医疗

转载原创文章请添加微信:founderparker







请到「今天看啥」查看全文