2月12日,智谱正式发布新一代大模型GLM-5。摩尔线程基于SGLang推理框架,在旗舰级AI训推一体全功能GPU MTT S5000上,Day-0完成了全流程适配与验证。
凭借MUSA架构广泛的算子覆盖强大的生态兼容能力,摩尔线程成功打通了模型推理全链路,并深度释放MTT S5000的原生FP8加速能力,在确保模型精度的同时显著降低了显存占用,实现了GLM-5的高性能推理。此次快速适配,不仅印证了MUSA软件栈的成熟度,更充分展现了国产全功能GPU对最新大模型即时、高效的支持能力。
![]()
GLM-5与MTT S5000的国产双强联合,将为开发者带来可对标国际顶尖模型的极致编程体验。无论是在函数补全、漏洞检测还是Debug场景中,该组合均表现卓越,以显著增强的逻辑规划能力,从容应对各类复杂的长程任务挑战。
GLM-5核心特性:定义Agentic Engineering新高度
作为GLM系列的最新里程碑版本,GLM-5定位为当下顶尖的Coding模型,整体性能较上一代提升20%。其核心突破在于Agentic Engineering(代理工程)能力——不仅具备深厚的代码功底,更拥有处理复杂系统工程与长程Agent任务的实力,能够实现从需求到应用的端到端开发。
![]()
在全球权威的Artificial Analysis榜单中,GLM-5位居全球第四、开源第一。
![]()
GLM-5在编程能力上实现了对齐Claude Opus 4.5,在业内公认的主流基准测试中取得开源模型SOTA。在SWE-bench-Verified和Terminal Bench 2.0中分别获得77.8和56.2的开源模型最高分数,性能超过 Gemini 3 Pro。
![]()
在内部Claude Code评估集合中,GLM-5在前端、后端、长程任务等编程开发任务上显著超越上一代的GLM-4.7(平均增幅超过20%),能够以极少的人工干预,自主完成Agentic长程规划与执行、后端重构和深度调试等系统工程任务,使用体感逼近Opus 4.5。
摩尔线程核心优势:软硬协同的全栈算力底座
MTT S5000是专为大模型训练、推理及高性能计算而设计的全功能GPU智算卡,基于第四代MUSA架构“平湖”打造。其单卡AI算力最高可达1000 TFLOPS,配备80GB显存,显存带宽达到1.6TB/s,卡间互联带宽为784GB/s,完整支持从FP8到FP64的全精度计算。
依托MUSA全栈平台,MTT S5000原生适配PyTorch、Megatron-LM、vLLM及SGLang等主流框架,助力用户实现“零成本”代码迁移。无论是构建万卡级大规模训练集群,还是部署高并发、低延迟的在线推理服务,MTT S5000均展现出对标国际主流旗舰产品的卓越性能与稳定性,旨在为行业筑牢坚实、易用的国产算力底座。
此次实现对GLM-5模型的快速支持,正是摩尔线程基于MTT S5000构建的软硬协同技术能力的集中体现。
从GLM-4.6、GLM-4.7到GLM-5,摩尔线程已将“发布即适配”化为常态,这种对主流软件栈的无缝兼容与敏捷响应,充分证明了国产全功能GPU及MUSA软件栈的成熟度与稳定性,确保开发者能第一时间触达最新模型能力,从而携手共建蓬勃发展的国产AI生态。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.