4月30日,智谱发布技术博客《Scaling Pain:超大规模Coding Agent推理实践》,首次系统披露GLM-5系列模型在超大规模Coding Agent调用场景下的底层推理技术突破。报告显示,经底层工程优化,GLM-5系列在Coding Agent场景下的系统吞吐量最高提升132%,系统异常输出率从万分之十几下降至万分之三以下。目前,智谱工程团队已将修复方案通过Pull Request #22811提交给了主流开源推理框架SGLang社区。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.