![]()
发布时间:
预发布:2025年9月26日
正式发布:2025年9月27日
一、版本亮点概述
在ollama v0.12.3中,官方带来了两款重量级新模型,并针对此前版本的多项功能问题进行了修复与优化,同时还引入了新的模型架构实现及更健壮的解析逻辑。
本次更新的核心变化主要包括:
• 新增DeepSeek-V3.1-Terminus混合模型
• 新增Kimi-K2-Instruct-0905MoE 模型
• 改进工具调用参数解析与 CLI 登录流程
• 修复 qwen3-coder 的 Unicode 解析问题
• 优化
/load模型加载失败的回滚处理• 新增DeepSeek2模型实现
• 加强流式解析的多语言与 Emoji 支持
• 混合架构,支持思考模式与非思考模式
• 比上一版本在各类基准测试中输出更加稳定可靠
• 两种运行方式:
• 云端运行:
.
ollama run deepseek-v3.1:671b-cloud• 本地运行(需 500GB+ 显存):
.
ollama run deepseek-v3.12. Kimi-K2-Instruct-0905• 最新且最强大的 Kimi K2 系列版本
•MoE(混合专家模型)架构
• 启用参数:32B
• 总参数量:1T
• 云端运行方式:
.
ollama run kimi-k2:1t-cloud三、功能修复与改进 1. 工具调用参数解析修复了某些情况下工具调用参数以字符串化 JSON形式传递时未正确解析的问题,保障了调用数据的可用性。
2. CLI 登录体验优化
ollama push命令在推送模型时,若需要登录,将直接提供可点击的 URL,方便设备进行登录操作。
3. Unicode 输出问题修复
针对qwen3-coder模型,修复了其输出时Unicode 字符编码错误的问题,包括 emoji、阿拉伯文等多语言场景。
4. 模型加载回退机制
在交互模式下,当使用/load加载模型失败(如模型未找到)时,会自动恢复之前的运行参数runOptions,避免交互会话状态丢失。
四、技术实现细节 1. DeepSeek2 模型实现
• 基于DeepSeek 2架构,但参考了DeepSeek 3的设计理念
• 支持稀疏 MoE与密集 MLP混合网络结构
• 引入RoPE(旋转位置编码)多参调整机制
• 完整实现注意力机制、专家路由与加权、BPE 分词器等模块
• 支持多语言分词,包括中文、日文、符号等
新增Copy()方法实现深浅拷贝混合逻辑,确保:
•
Messages、Images、Options等可变结构深拷贝• 指针类型如
KeepAlive保持浅拷贝(共享引用)•
Think对象新建副本,避免思考模式状态污染
并提供多组单元测试验证:• 数据一致性
• 空值与空集合保持原样
• 修改原始对象不影响副本
• 新增基于
utf8.DecodeLastRuneInString的末尾空白字符统计逻辑• 正确处理多语言字符、emoji、阿拉伯文、非断行空格等场景
• 流式解析测试案例覆盖:
• Emoji 原样保留
• 阿拉伯文本连续性
• 中文、英文混合段落
• 非断行空格跨数据块保留
• 为
PushHandler增加多种登录与权限测试场景• runOptions 的拷贝方法增加空、非空多组合测试
• qwen3-coder 流式解析新增 unicode/emoji 的精细化测试用例
本次更新修复了 ROCm 6.4 ~ 7.0 Docker 运行失败的问题,新增必要库依赖:
•
libroctx64.so.4•
librocroller.so.1
ollama v0.12.3不仅带来了两款高性能的新模型,还从 CLI 用户体验、模型解析准确性、容错回退机制等多个方面进行了优化,同时引入了新的 DeepSeek2 架构实现与 Unicode 流式解析支持,使得多语言场景处理更加稳定。
我们相信人工智能为普通人提供了一种“增强工具”,并致力于分享全方位的AI知识。在这里,您可以找到最新的AI科普文章、工具评测、提升效率的秘籍以及行业洞察。 欢迎关注“福大大架构师每日一题”,发消息可获得面试资料,让AI助力您的未来发展。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.