![]()
2025年11月14日,Ollama 正式发布了 v0.12.11 版本,并在 11 月 12 日进行了预发布。本次更新为 Ollama 的 API、应用程序和底层性能带来了多项重要改进,同时修复了多个已知问题,进一步提升了用户体验与开发效率。
主要更新内容 1. API 功能增强
• Ollama 的 API 以及 OpenAI 兼容 API 现已支持Logprobs和Top Logprobs,为模型推理提供更丰富的概率信息,可用于更精细的结果分析和调试。
• 工具定义中的
"required"字段在未指定时将被省略,减少无效字段输出,提升 API 响应的简洁性。• 修复了使用 OpenAI 兼容 API 时
tool_call_id字段会被遗漏的问题,确保集成调用的完整性。
• Ollama 新版应用现已支持WebP 图片,带来更高效的图片加载与显示效果。
• 改进了应用的渲染性能,在渲染代码时尤其明显,减少卡顿,提高流畅度。
• 优化了 macOS 文件选择器,增加对Uniform Type Identifiers的支持,提升文件选择过程的准确性与兼容性。
• 在模型调度时,Ollama 将优先使用独显(dedicated GPU)而非集显(iGPU),提升模型运行效率。
• 新增Vulkan 支持,用户可通过设置
OLLAMA_VULKAN=1启用。例如:
OLLAMA_VULKAN=1 ollama serveVulkan 的引入为特定硬件平台提供了更好的性能优化潜力。
4. Bug修复与稳定性提升
• 修复了
ollama create会同时导入consolidated.safetensors和其它 safetensor 文件的问题,避免数据重复引入。• 文档更新与修复,包括:
• 修复 modelfile 文档的 404 链接。
• 更新 GPU、n8n 集成等说明。
• 调整 openapi 文档结构与响应说明,确保 API 文档更准确清晰。
• 移除了 GIF 格式的测试支持,简化了图片验证过程并减少日志冗余。
• llamaRunner 优化了设备排序逻辑,以更好地支持层的卸载(offloading)。
• Ollama 引擎在新旧版本中统一了内存布局,提高兼容性与资源管理效率。
• 分离 llamaServer 与 ollamaServer 的代码路径,便于维护与扩展。
Ollama v0.12.11 不仅在 API 功能、应用体验、性能优化方面都有显著提升,还通过修复多个细节问题和优化文档,使得开发者和用户使用起来更加高效流畅。对于依赖 Ollama 进行大模型部署与调用的用户而言,这次更新是一次重要的进步。
我们相信人工智能为普通人提供了一种“增强工具”,并致力于分享全方位的AI知识。在这里,您可以找到最新的AI科普文章、工具评测、提升效率的秘籍以及行业洞察。 欢迎关注“福大大架构师每日一题”,发消息可获得面试资料,让AI助力您的未来发展。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.