昨晚 Kimi 发布了 K2 Thinking 模型,其实我有点被惊到了。
之前看到预告我以为只是一个小的升级,没想到又发长cot的思考模型。因为这个模型本来就很难,而他们只用了两三个月的时间,就又完成了这次升级
从结果看,K2 -thinking模型在 HLE 上sota,多个核心指标在全球权威榜单上超过了 GPT-5 和 Claude Sonnet 4.5
但是别忘了,他们的投入对比open ai 简直可以说是四舍五入不要钱,这是一个规模两三百人的中国团队用两个月的时间完成的成绩
(据外媒报道,K2 的训练预算大约是 460 万美元。仅有用 OpenAI、Anthropic 约 1% 的成本,在这个行业,这几乎只是“一个实验的零头”,可这样点“节制的投入”,还产出了一个能连续推理 200~300 轮的sota模型。)
这件事情让我在想起之前yangzhiling的采访,那个采访我没看完,大概就看了几个点,token effiency很重要,管理组织的rl和sft的平衡很重要。
在国外模型押注算力与规模时,kimi更像是在押注“理解力”和“思维结构”——从所谓的堆叠智能转向组织智能。
什么才是AI模型竞赛的终点?如果过去的阶段是“比谁更快更大”,我觉得那下一个阶段,也许是“比谁更懂得思考”。包括模型运作的方式,也包括如何在更少的资源的时候做更大的事情
一切的一切都关乎思考与判断。
而“thinking”这个名字本身,其实也像是一种声明:真正的智能,不在于能调用多少工具,而在于能否在不确定中保持连续的推理与判断。
海外的反应也很微妙。
像Deedy,是MenloVentures合伙人、X上的大V,就认为Kimi K2 Thinking是当前全球最佳大模型,开源+宽松授权,可以说是AI模型的一个转折节点
Nathan Lambert也觉得,中国AI模型的突破会给美国实验室带来压力,后续还会有更多拐点
我只觉得,当外界开始认真分析这种效率时,某种意义上,kimi已经赢了。
这时候,再回头看Kimi只用了open ai.大概1%的预算、仅有open ai.0.5%的估值,以及模型连续登上各种权威榜单sota的热度。
这种被低估,也是一种领先。
#月之暗面 #KimiK2 #大模型思考#AI异类弗兰克 #AI
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.