全新 Mistral 3 系列涵盖从前沿级到紧凑型模型,针对 NVIDIA 平台进行了优化,助力 Mistral AI 实现云到边缘分布式智能愿景。
Mistral AI 近日发布了开源多语言、多模态模型 Mistral 3 系列,并且针对 NVIDIA 超级计算和边缘平台进行了优化。
![]()
- Mistral Large 3 是专家混合 (MoE) 模型,无需为每个 token 激活全部神经元,可以仅调用模型中影响最大的部分,既可在无浪费的前提下实现高效扩展,又可确保准确性不受损,使企业级 AI 不仅成为可能,而且更具实用性。
凭借 41B 活跃参数、675B 总参数及 256K 上下文窗口,Mistral Large 3 实现了可扩展、高效且具有自适应性的企业级 AI 工作负载。通过整合 NVIDIA Grace Blackwell 机架级扩展系统与 Mistral AI 的 MoE 架构,企业可借助先进的并行计算与硬件优化技术,高效部署并扩展大型 AI 模型。
该模型采用精细化 MoE 架构,通过调用 NVIDIA NVLink 的协同内存域及宽专家并行的优化技术,充分发挥大规模专家并行的性能优势。这些优势与保持准确性的低精度 NVFP4 及 NVIDIA Dynamo 分离推理优化技术相叠加,确保大规模训练与推理达到极佳性能。
- Mistral AI 不仅推动了前沿大语言模型技术的发展,还发布了九款小语言模型,助力开发者在任意环境中运行 AI。为了实现云端到边缘的高效运算,NVIDIA 针对 Mistral 3 系列模型优化了包括 NVIDIA TensorRT LLM、SGLang 和 vLLM 在内的推理框架。
以上为摘要内容,点击链接阅读完整内容:NVIDIA 携手 Mistral AI 共同加速开放模型新系列的落地 | NVIDIA 英伟达博客
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.