网易首页 > 网易号 > 正文 申请入驻

Meta深夜开源Llama 4!首次采用MoE,惊人千万token上下文,竞技场超越DeepSeek

0
分享至

内容来自:机器之心

万万没想到。Meta 选择在周六日,发布了最新 AI 模型系列 ——Llama 4,这是其 Llama 家族的最新成员。

该系列包括 Llama 4 Scout、Llama 4 Maverick 和 Llama 4 Behemoth。所有这些模型都经过了大量未标注的文本、图像和视频数据的训练,以使它们具备广泛的视觉理解能力。

Meta GenAI 负责人 Ahmad Al-Dahle 表示,Llama 4 展示了 Meta 对开源 AI、整个开源 AI 社区的长期承诺以及坚定不移的信念 —— 开放系统将产出最好的小型、中型和即将出现的前沿大模型。

谷歌 CEO 劈查伊不禁感叹,人工智能世界永远不无聊,恭喜 Llama 4 团队,继续前进!

在大模型竞技场(Arena),Llama 4 Maverick 的总排名第二,成为第四个突破 1400 分的大模型。其中开放模型排名第一,超越了 DeepSeek;在困难提示词、编程、数学、创意写作等任务中排名均为第一;大幅超越了自家 Llama 3 405B,得分从 1268 提升到了 1417;风格控制排名第五。

那么 Llama 4 模型系列有何特点呢?具体而言:

Llama 4 Scout 是一个拥有 170 亿激活参数和 16 个专家的模型,是同类中全球最佳的多模态模型,比前几代 Llama 模型更强大,且能适配单个 NVIDIA H100 GPU。此外,Llama 4 Scout 提供了业界领先的 10M 上下文窗口,在广泛报道的基准测试中表现优于 Gemma 3、Gemini 2.0 Flash-Lite 和 Mistral 3.1。

Llama 4 Maverick 是一个拥有 128 位专家、 170 亿个激活参数模型,是同类中最好的多模态模型,在广泛报道的基准测试中击败了 GPT-4o 和 Gemini 2.0 Flash,同时在推理和编程方面取得了与新 DeepSeek v3 相当的结果 —— 激活参数不到一半。Llama 4 Maverick 提供了一流的性价比,其实验性聊天版本在 LMArena 上的 ELO 得分为 1417。

以上这两个模型是 Meta 迄今为止最好的模型,主要得益于它们是从拥有 2880 亿激活参数和 16 个专家的 Llama 4 Behemoth 模型进行知识蒸馏而来。

Llama 4 Behemoth 是 Meta 目前最强大的模型之一,也是世界上最智能的大型语言模型之一。在多项科学、技术、工程和数学(STEM)基准测试中,Llama 4 Behemoth 的表现优于 GPT-4.5、Claude 3.7 Sonnet 和 Gemini 2.0 Pro。

不过,Llama 4 Behemoth 仍在训练中,后续 Meta 会放出更多内容。

好消息是,用户现在就可以在 llama.com 和 Hugging 上下载 Llama 4 Scout 和 Llama 4 Maverick 最新模型。

所有 Llama 4 模型均采用原生多模态设计,比如上传一张图像,你可以问关于这张图像的任何问题

Llama 4 Scout 支持长达 1000 万 token 的上下文,这是目前行业内最长的上下文长度,解锁了围绕记忆、个性化和多模态应用的新用例。

Llama 4 在图像 grounding 方面也是一流的,能够将用户提示与相关的视觉概念对齐,并将模型响应锚定到图像中的区域。

Llama 4 还经过预训练和微调,能够理解 12 种语言的无与伦比的文本,支持全球开发和部署。

预训练

Meta 在构建下一代 Llama 模型时,在预训练阶段尝试了多种新方法。

首先,这是 Meta 首次采用混合专家(Mixture of Experts, MoE)架构。在 MoE 模型中,单个 token 仅激活总参数的一部分。Meta 表示,MoE 架构在训练和推理时计算效率更高,在固定训练 FLOPs 预算下,相比密集模型提供更高的质量。

以 Llama 4 Maverick 模型为例,该模型拥有 170 亿激活参数和 4000 亿总参数。Meta 采用交替的密集层和混合专家(MoE)层来提高推理效率。在 MoE 层中,他们使用了 128 个路由专家和一个共享专家。每个 token 都会被发送到共享专家以及 128 个路由专家中的一个。

因此,尽管所有参数都存储在内存中,但在服务这些模型时,只有总参数的一部分被激活。这通过降低模型服务成本和延迟来提高推理效率 ——Llama 4 Maverick 可以在单个 NVIDIA H100 DGX 主机上运行,便于部署,也可以通过分布式推理实现最高效率。

Llama 4 系列模型采用原生多模态设计,通过早期融合将文本和视觉 token 无缝整合到统一的模型骨干中。早期融合是一个重大进步,因为这样能够使用大量未标记的文本、图像和视频数据对模型进行联合预训练。此外,Meta 还改进了 Llama 4 中的视觉编码器,该编码器基于 MetaCLIP,以更好地使编码器适应 LLM。

另外,Meta 还开发了一种新的训练技术,称为 MetaP,其能够可靠地设置模型超参数,例如每层的学习率和初始化规模。Meta 发现,选定的超参数在不同批量大小、模型宽度、深度和训练 token 值之间具有良好的迁移性。

Llama 4 通过在 200 种语言上进行预训练,支持开源微调工作,其中包括超过 100 种语言,每种语言都超过 10 亿 token,总体上比 Llama 3 多 10 倍的多语言 token。

此外,Meta 采用 FP8 精度进行训练,兼具质量并确保高 FLOPs 利用率。在使用 FP8 和 32K GPU 预训练 Llama 4 Behemoth 模型时,Meta 实现了每 GPU 390 TFLOPs。训练所用的数据混合总量超过 30 万亿 token,是 Llama 3 预训练数据混合量的两倍多,涵盖了多样化的文本、图像和视频数据集。

最后,Meta 还通过所谓的中期训练(mid-training)继续训练模型,提升模型核心能力,包括利用专门的数据集扩展长上下文。这使 Meta 在提升模型质量的同时,为 Llama 4 Scout 解锁了业界领先的 1000 万输入上下文长度。

后训练

Llama 4 Maverick 在图像和文本理解方面提供了无与伦比、行业领先的性能,能够创建跨越语言障碍的复杂人工智能应用。作为通用助手和聊天用例的产品主力模型,Llama 4 Maverick 在精确图像理解和创意写作方面表现出色。

在对 Llama 4 Maverick 模型进行后训练时,最大的挑战是平衡多种输入模态、推理能力和对话能力。为了混合模态,Meta 设计了一种精心策划的课程策略,与单一模态专家模型相比,这种策略不会降低性能。

在 Llama 4 中,Meta 通过采用不同的方法对后训练流程进行了全面改进:轻量级监督微调(SFT)> 在线强化学习(RL)> 轻量级直接偏好优化(DPO)。Meta 发现,SFT 和 DPO 可能会过度约束模型,限制在线 RL 阶段的探索能力,从而导致推理、编程和数学领域的精度下降。

为了解决这一问题,Meta 使用 Llama 模型作为评判,移除了超过 50% 的标记为简单(easy)的数据,并在剩余较难的数据集上进行了轻量级监督微调(SFT)。在随后的多模态在线强化学习(RL)阶段,通过精心选择较难的提示,实现了性能的显著提升。

此外,Meta 还实施了持续在线 RL 策略,交替训练模型并使用它持续过滤并保留中等至高难度的提示。这种策略在计算和准确性权衡方面非常有益。

最后,Meta 还进行了轻量级直接偏好优化(DPO),以处理与模型响应质量相关的边缘情况,有效实现了模型智能与对话能力的良好平衡。这些改进促成了一个业界领先的通用聊天模型,具备最先进的智能和图像理解能力。

性能

Llama 4 Maverick 包含 170 亿激活参数、128 个专家和 4000 亿总参数,相比 Llama 3.3 70B,以更低的价格提供了更高的质量。由下表可知,Llama 4 Maverick 是同类中最佳的多模态模型,在编码、推理、多语言、长上下文和图像基准测试中,其性能超过了类似模型如 GPT-4o 和 Gemini 2.0,并且在编码和推理方面与规模更大的 DeepSeek v3.1 具有竞争力。

较小模型 Llama 4 Scout 是一款通用型模型,拥有 170 亿激活参数、16 个专家和 1090 亿总参数,能够在其所属类别中提供最先进的性能。Llama 4 Scout 将支持的上下文长度从 Llama 3 的 128K 大幅提升至业界领先的 1000 万 token。这为多文档摘要、解析广泛用户活动以实现个性化任务以及推理庞大代码库等应用提供了更多可能性。

Llama 4 Scout 在预训练和后训练中均使用 256K 上下文长度,使基础模型具备强大的长上下文泛化能力。在大海捞针检索等任务中,该模型均展示了令人信服的结果。

Llama 4 架构的关键创新之一是使用无位置嵌入的交错注意力层(interleaved attention layers),并通过推理时的温度缩放来增强长上下文泛化能力。这种架构被称为 iRoPE 架构,其中 i 代表交错(interleaved)注意力层,强调其支持无限上下文长度的长期目标;RoPE 指大多数层中使用的旋转位置嵌入。

Meta 对两款模型进行了广泛的图像和视频帧静止图像训练,以赋予它们广泛的视觉理解能力,包括对时序活动及相关图像的理解。这使得模型能够在多图像输入和文本提示下轻松进行视觉推理和理解任务。这些模型在预训练时最多支持 48 张图像,并且在后训练中可以支持 8 张图像,结果良好。

Llama 4 Scout 在图像定位方面表现卓越,能够将用户提示与相关视觉概念对齐,并将模型响应锚定到图像中的特定区域。这使得大型语言模型能够更精确地进行视觉问答,更好地理解用户意图并定位感兴趣的对象。

此外,Llama 4 Scout 在编码、推理、长上下文和图像基准测试中超越了类似模型,并且比所有之前的 Llama 模型表现更强。

将 Llama 推向新的尺度:2T Behemoth

Llama 4 Behemoth 预览版是一个教师模型, 也是一个多模态混合专家模型,拥有 2880 亿激活参数、16 个专家和近 2 万亿总参数。

在数学、多语言和图像基准测试中,它提供了非推理模型的最先进性能,是教授较小 Llama 4 模型的完美选择。

对一个拥有两万亿参数的模型进行后训练是一个巨大的挑战,这要求研究者从数据规模开始,彻底重新设计和改进训练方案。为了最大化性能,Meta 不得不对监督微调(SFT)数据进行 95% 的剪枝,而较小模型的剪枝比例为 50%。这一举措是为了在质量和效率上取得必要的平衡。Meta 还发现,先进行轻量级监督微调(SFT),再进行大规模强化学习(RL),能够显著提升模型的推理和编码能力。

Meta 的强化学习(RL)方案专注于通过策略模型进行 pass@k 分析,采样难度较高的提示,并构建难度逐渐增加的训练课程。此外,在训练过程中动态过滤掉零优势的提示,并构建包含多种能力的混合提示训练批次,这些措施在数学、推理和编码方面为模型带来了显著的性能提升。最后,从多种系统指令中采样对于确保模型在推理和编码任务中保持指令遵循能力至关重要,这使得模型能够在多种任务中表现出色。

为两万亿参数的模型扩展强化学习(RL)也是一项巨大的挑战,这迫使 Meta 不得不重新设计并改进底层的强化学习基础设施,以应对前所未有的规模。

Meta 对混合专家(MoE)并行化的设计进行了优化,以提升速度,从而加快迭代过程。此外,他们还开发了一个完全异步的在线强化学习训练框架,增强了灵活性。与现有的分布式训练框架相比,后者为了将所有模型加载到内存中而牺牲了计算内存,Meta 的新基础设施能够灵活地将不同模型分配到不同的 GPU 上,并根据计算速度在多个模型之间平衡资源。这一创新使得训练效率相比上一代提升了约 10 倍。

Llama 4 Scout 和 Llama 4 Maverick 现已开放下载,地址:

  • llama.com:https://www.llama.com/llama-downloads/

  • Hugging Face 地址:https://huggingface.co/meta-llama


参考链接:https://ai.meta.com/blog/llama-4-multimodal-intelligence/

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
省数据局的通报只有九百来字,我却读出了八百个心眼子

省数据局的通报只有九百来字,我却读出了八百个心眼子

大何日拱一卒
2026-01-13 23:00:16
不容易!河北农村燃气降价2毛钱,每户再给200元补贴

不容易!河北农村燃气降价2毛钱,每户再给200元补贴

小萝卜丝
2026-01-14 09:18:09
亚服第一钟无艳,韩国女留学生在日被霸凌,手握铁锤猛砸八名同学

亚服第一钟无艳,韩国女留学生在日被霸凌,手握铁锤猛砸八名同学

社会酱
2026-01-14 17:02:49
2026春节档陆续有十部电影上映,周星驰两部,你期待哪几部?

2026春节档陆续有十部电影上映,周星驰两部,你期待哪几部?

小Q侃电影
2026-01-14 13:42:26
耻辱 14亿欧皇马2-3输1000万欧西乙队:新帅黑脸 1.5亿巨星遭狂骂

耻辱 14亿欧皇马2-3输1000万欧西乙队:新帅黑脸 1.5亿巨星遭狂骂

风过乡
2026-01-15 06:18:03
当媒体开始“抢新闻”,说明新闻确实很少了

当媒体开始“抢新闻”,说明新闻确实很少了

走读新生
2026-01-14 13:24:50
宝能集团姚振华举报观致汽车被贱卖,估价报告显示行政楼每平米单价2千元

宝能集团姚振华举报观致汽车被贱卖,估价报告显示行政楼每平米单价2千元

新京报
2026-01-14 17:24:04
贺娇龙坠马后续:确认死亡,知情人曝原因头 骨被马踏碎,画面太惨

贺娇龙坠马后续:确认死亡,知情人曝原因头 骨被马踏碎,画面太惨

生活魔术专家
2026-01-15 02:49:09
解密:马杜罗卫队幸存者声明,当晚不但有声波武器,美军还有隐身衣

解密:马杜罗卫队幸存者声明,当晚不但有声波武器,美军还有隐身衣

叶天辰故事会
2026-01-13 11:45:49
600多万粉丝“马背上的女县长”意外坠马去世,年仅47岁,一周前还在发视频宣传,此前曾多次坠马,遭母亲训斥“不准回家”

600多万粉丝“马背上的女县长”意外坠马去世,年仅47岁,一周前还在发视频宣传,此前曾多次坠马,遭母亲训斥“不准回家”

极目新闻
2026-01-15 00:43:21
闫学晶事件迎来反转!林傲霏中戏毕业照曝光,中戏欺骗了所有考生

闫学晶事件迎来反转!林傲霏中戏毕业照曝光,中戏欺骗了所有考生

阿纂看事
2026-01-14 16:41:41
伊朗处于最高战备状态!未排除动武可能,特朗普:将“观望”局势发展!欧洲多国敦促其公民离开伊朗

伊朗处于最高战备状态!未排除动武可能,特朗普:将“观望”局势发展!欧洲多国敦促其公民离开伊朗

每日经济新闻
2026-01-15 06:30:06
“每卖一辆问界,13.6万流向华为”,赛力斯最新披露来了

“每卖一辆问界,13.6万流向华为”,赛力斯最新披露来了

智能车参考
2026-01-14 17:14:37
携程跌超9%!市场监管总局依法对携程集团有限公司立案调查

携程跌超9%!市场监管总局依法对携程集团有限公司立案调查

21世纪经济报道
2026-01-14 16:14:49
柬埔寨铁笼拉人当地辟谣翻车,骗不了寻子妈妈的眼泪和公众的眼睛

柬埔寨铁笼拉人当地辟谣翻车,骗不了寻子妈妈的眼泪和公众的眼睛

你食不食油饼
2026-01-12 15:32:08
伊朗得到中国声援,特朗普当即调转枪口:对华加关税,马上执行!

伊朗得到中国声援,特朗普当即调转枪口:对华加关税,马上执行!

头条爆料007
2026-01-14 08:27:40
越扒越有,被人民网点名后,闫学晶又被曝身份造假,成名史太精彩

越扒越有,被人民网点名后,闫学晶又被曝身份造假,成名史太精彩

奇思妙想草叶君
2026-01-14 21:18:53
瑞银泼冷水:明年房价再跌10%,后年再跌5%

瑞银泼冷水:明年房价再跌10%,后年再跌5%

谭谈投研
2025-12-27 18:07:13
2-1绝杀!亚洲杯神剧情:4分钟从出局到出线,中国队第一变为第二

2-1绝杀!亚洲杯神剧情:4分钟从出局到出线,中国队第一变为第二

侃球熊弟
2026-01-14 22:21:14
突发!携程集团被立案调查,股价盘尾大跌

突发!携程集团被立案调查,股价盘尾大跌

凤凰网财经
2026-01-14 17:21:06
2026-01-15 08:20:49
学术头条
学术头条
致力于学术传播和科学普及,重点关注AI4Science、大模型等前沿科学进展。
1429文章数 5081关注度
往期回顾 全部

科技要闻

反垄断大棒,为何砸向了携程

头条要闻

贺娇龙意外坠马头部重伤离世 最后一条朋友圈与马有关

头条要闻

贺娇龙意外坠马头部重伤离世 最后一条朋友圈与马有关

体育要闻

你是个好球员,我们就拿你交易吧

娱乐要闻

网红彭十六偷税被封杀 曾成功转型明星

财经要闻

携程被立案调查,最高或被罚超50亿

汽车要闻

曝Model Y或降到20万以内!

态度原创

亲子
教育
旅游
家居
公开课

亲子要闻

我们不对你好,谁对你好~

教育要闻

孩子可以不成才,但不能不感恩

旅游要闻

缙云丨余道勇:时光在天星沟交汇

家居要闻

心之所向 现代建构之美

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版