![]()
![]()
![]()
一、版本发布概览
2026年2月6日,ollama 推出了v0.15.5最新版本。本次更新在模型阵容、性能优化和开发者体验多个层面上都有实质性突破,尤其是对多模型协作、上下文管理和本地开发流程的深度优化,为开发者提供更高效、更智能的调用体验。
二、新增模型:Qwen3-Coder-Next与GLM-OCR
1. Qwen3-Coder-Next
这是来自阿里巴巴 Qwen 团队的全新编码型语言模型,专注于智能代码生成与本地开发代理工作流。该模型在代码理解、自动补全和多步骤代理执行方面进行了全面优化,特别适用于需要持续上下文调用的开发者场景。
2. GLM-OCR
GLM-OCR 是一款多模态文档理解 OCR 模型,基于 GLM-V 编码-解码架构构建,聚焦于复杂文档的图像—文本解析任务。该模型的引入使 ollama 能够支持更复杂的视觉+文本混合输入,适配文档、表单等应用。
三、ollama launch 功能改进
1. 支持参数传入
现在可在启动时直接提供模型参数,例如:
ollama launch claude -- --resume允许用户在启动模型时追加自定义指令或运行参数。
2. 支持子代理运行
在执行ollama launch claude等命令时,系统可运行子代理(sub-agent),支持多层规划、深度研究与协同任务执行。
3. 优化上下文自动设定
当使用ollama launch opencode时,系统将根据模型类型自动设置上下文上限,避免代码模型调用时内存溢出或性能下降。
四、VRAM分级上下文长度新机制
根据显存容量,ollama 将默认采用分级上下文长度:
VRAM容量
默认上下文长度
< 24 GiB
4,096 context
24–48 GiB
32,768 context
≥ 48 GiB
262,144 context
这一机制确保了不同硬件环境下的最优模型加载性能,充分利用 GPU 资源。
五、核心引擎与交互改进
1. GLM-4.7-Flash 支持
在实验性 MLX 引擎中新增对GLM-4.7-Flash的支持,进一步提高模型推理速度与压缩能力。
2. ollama signin 浏览器登录优化
执行ollama signin时将自动打开浏览器窗口,简化登录流程并直接跳转至连接页面。
六、错误与稳定性修复
• 修复
num_predict参数出现的 off-by-one 错误,保证预测的 Token 数量准确。• 修复上一次序列的 Token 误返回问题。
• 改进加载请求的错误提示,使问题更易定位。
• 优化
chatPrompt机制以减少不必要的 Token 化调用,提高响应效率。• 修复当批次中序列被替换时计算结果错误的情况,保证推理稳定性。
• 新增对远程模型的错误提示,使远程调用过程更清晰易调试。
• 默认为 Qwen3-Next 与 LFM 模型设置
parallel=1,保证推理序列一致性。• 增强 macOS 平台支持,
install.sh脚本现可在 macOS 系统中直接执行。•
ollama launch命令进一步优化执行逻辑,改进参数和上下文管理机制。• 云端模型在
opencode模式下可自动设置上下文限制,提高云端并行调用稳定性。
ollama v0.15.5是对开发者体验和模型性能的双重升级版本。核心亮点包括:
•双新模型接入:Qwen3-Coder-Next、GLM-OCR
•Sub-agent 支持与参数化启动机制完善
•显存分级上下文长度智能设定
•GLM-4.7-Flash 实验性引擎支持
•登录与错误提示体验优化
•跨平台支持与稳定性增强
这一版本不仅提升了大规模模型在多任务环境下的执行效率,也进一步降低了开发者的使用门槛。无论是代码生成、文档识别还是多代理协作,ollama v0.15.5 都为智能化的本地开发提供了强劲的动力。
结语:
代码地址:github.com/ollama/ollama
ollama v0.15.5 是一次面向开发者生态的核心进化。从模型到体验,它体现了开源 LLM 平台的持续迭代与深度融合趋势,为构建更强大的智能开发环境奠定了坚实基础。
我们相信人工智能为普通人提供了一种“增强工具”,并致力于分享全方位的AI知识。在这里,您可以找到最新的AI科普文章、工具评测、提升效率的秘籍以及行业洞察。 欢迎关注“福大大架构师每日一题”,发消息可获得面试资料,让AI助力您的未来发展。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.