Kimi K2:本地运行指南【量化版(体积减少 80%)】
如何运行Kimi K2 这个庞然大物(API & 本地部署)
刷到Kimi员工在X上说——“我嗅到了一个伟大模型的到来”
评论区才发现是K2思考模型发布了,官方账号倒是安静
这次低调到只在官方API文档中更新了模型名称
> `kimi-k2-thinking`模型是具有通用 Agentic 能力和推理能力的思考模型,它擅长深度推理,并可通过多步工具调用,帮助解决各类难题。
- kimi-k2-thinking 模型上下文长度 256k,是具有通用 Agentic 能力和推理能力的思考模型,它擅长深度推理
- kimi-k2-thinking-turbo 模型上下文长度 256k,是 kimi-k2-thinking 模型的高速版,适用于需要深度推理和追求极致高速的场景
kimi-k2-thinking-turbo 输出价格每百万Token 58元
太晚了,没时间细测,只拿了我经常使用的一个阅读理解+svg代码生成的例子,还算不错,比Qwen3-Max还强,是国产模型中为数不多可以正确识别到四次背影并正确引用原文的。只是理解的不够深刻,而且审美上,还差点意思。最后一张图是Claude 3.7的水平。
今天白天在搞DeepSeek-COR和PaddleOCR-VL的本地部署,明天再详细测试 kimi-k2-thinking
![]()
![]()
![]()
![]()
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.