(文/陈济深 编辑/张广凯)
11月6日,月之暗面发布最新模型Kimi K2 Thinking,在Humanity's Last Exam、TAU-Bench等重要基准测试中,超越GPT-5、Claude 4.5等全球最强开源乃至闭源模型。
![]()
在Kimi发布更新的同一天,英伟达CEO黄仁勋关于“中国将赢下人工智能全球竞赛”的最新言论更是让这个中国大模型吸引了全世界的关注。
在专业机构 Artificial Analysis 智能体工具的调用测试中,Kimi K2 Thinking的得分达到93%,是目前第三方机构测量到的最高分;在智能指数中,则以67分排名第3,仅次于GPT5。
![]()
![]()
K2 Thinking在几个关键领域实现了重大突破:首先是采用了“超稀疏MoE”架构,用极高的效率获得了万亿级模型的强大知识;其次是实现了“原生INT4量化”,在训练中就解决了精度与效率的矛盾,大幅提升了推理速度并降低了硬件门槛;最关键的是,它在“智能体”(Agent)工具调用能力上实现了质的飞跃,在衡量“AI数字员工”能力的TAU-Bench测试中登顶。
在发布后仅仅48小时不到,Kimi K2 Thinking下载量已超过5万,成为人工智能全球最大开源社区Hugging Face最热门的开源模型。
“这是另一个DeepSeek时刻吗?”Hugging Face联合创始人Thomas Wolf在个人社交账号上敲下评论。海外的开源社区和科技媒体上,开发者对Kimi K2 Thinking的赞誉也纷至沓来。
![]()
除了性能上的突破,一则传闻的出现更是让Kimi引发了市场的强烈关注。CNBC报道称,Kimi K2的训练成本仅为460万美元。
这也意味着,Kimi仅用了OpenAI训练GPT5不到1%的成本就训练出了不输GPT5的全球顶级大模型,而33亿美元估值的月之暗面比起目前估值突破5000亿,旨在冲击万亿美元市值的OpenAI更是可以忽略不计,而就是这个中国的“小”玩家却用极低的成本搓出了一个顶级模型。
面对这个震撼的对比,K2 Thinking在引发市场关注的同时,也引发了部分人群的质疑,Kimi新模型的训练成本到底是多少?Kimi这次登顶是不是跑分刷榜?Kimi不做多模态模型是不是就是为了刷榜而不是应用?
11月11日深夜,月之暗面月之暗面联合创始人兼CEO杨植麟,以及联合创始人周昕宇和吴育昕,在Reddit举办了一场AMA (Ask Me Anything,问我任何事),回应了诸多外界的关注内容。
从回答阵容来看,杨植麟用了一个叫“ComfortableAsk4494”的账号来直接在线答疑。
![]()
对于大家最关心的训练成本问题,杨植麟直接坦言460万美元不实。
他表示:“这不是官方数据。由于训练成本中很大一部分是研究和实验,所以很难量化具体数字。”
![]()
而对于优先聚焦文本模型是为了短期刷榜,还是准备持续深耕文本领域的问题,杨植麟则明确表示,“训练视觉语言模型需要时间获取数据和调整训练,所以我们决定先发布一个文本模型。”
![]()
甚至有网友问到为什么OpenAI会烧那么多钱,杨植麟更是坦言“我不知道”。
还有网友质疑,Kimi K2 Thinking是否经过专门训练,以在HLE这一基准测试中取得好成绩?它的高分似乎与实际使用中的智能水平不太相符。
杨植麟回应道,Kimi K2 Thinking在提升智能体推理能力方面取得了一些进展,使其在HLE测试中得分较高。月之暗面正在努力进一步提升其通用能力,以便在更多实际应用场景中充分发挥智能的作用。
另有网友问道:“为何K2 Thinking能在一次推理中保持如此长的思维链,而GPT-5不行?”
杨植麟解释道:“我认为推理时间取决于API吞吐,而推理token的数量取决于模型训练方式。我们在训练Kimi K2 Thinking时倾向于使用更多的思考token以获得最佳效果。我们的Turbo API会更快,同时Kimi K2 Thinking原生采用INT4,这也提升了推理速度。
Kimi K2系列模型不阿谀奉承、直接的文风在AI界算是一股清流,有不少网友认可这种风格。吴育昕称,这种写作风格是模型后训练数据和评估的重要组成部分。
月之暗面三位联合创始人还集中回应了与模型服务、开源等相关话题的疑问。
有网友称,Kimi在自己的公司已经成为主要的测试模型,但生产环境会切换到美国本土的模型。这主要是因为领导层担心Kimi是“中国大模型”,可能存在一些风险。
这位网友还分享,自己很喜欢使用Kimi App,自己一位在亚马逊工作的朋友也很喜欢这一应用,但由于亚马逊有规定必须使用自家的AI助手,禁止在工作场合使用其他主流的AI助手App。网友担心,随着Kimi逐渐变得知名,她会不会再也无法在工作场合中使用呢?
吴育昕回应称:“虽然被封禁往往超出我们的控制范围,但开源该模型有望成为消除部分顾虑的有效途径(企业可以自行部署)。我们希望看到一个更加信任的世界,但这需要时间。”
上下文一直是影响AI模型在生产环境应用的重要因素。目前,Kimi K2 Thinking最大支持256K的上下文,有网友反馈这对大型代码库而言并不算大。
杨植麟称,月之暗面应该能在未来的版本中增加上下文长度。
还有网友希望月之暗面能将模型上下文窗口提升到100万个token,周昕宇回复道,月之暗面之前已尝试过100万个token的上下文窗口,但当时的服务成本太高,未来他们会重新考虑更长的上下文窗口。
当被问及有无AI浏览器的开发计划时,周昕宇十分犀利地回复道:要做出更好的模型,并不需要再去套一层新的Chromium壳。
杨植麟称,月之暗面目前将专注于模型训练,但会不断更新kimi.com ,使其包含最新功能。
还有不少网友提到,希望月之暗面能推出规模更小的模型。杨植麟称,Kimi-Linear-48B-A3B-Instruct就是月之暗面发布的小型模型之一,未来他们可能会训练更多模型并添加更多功能。
目前,Kimi已经提供了编程订阅方案,这一计费方式是基于API请求次数,有网友称这种模式导致资源消耗偏高。月之暗面回应称,API请求次数计费能让用户看到费用明细,同时也更符合企业的成本结构。不过,他们会尽快找到更好的方案。
从社区中海外开发者的热烈提问和尖锐反馈可以看出,以Kimi系列为代表的中国模型正受到前所未有的关注。月之暗面此次在Reddit平台的公开问答,集中回应了全球网友对Kimi技术细节的大量兴趣和疑问。这种关注背后,也折射出全球开发者对中国AI创新能力的认可。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.