如果你一直在关注Kiwi-chan的开发进展,你会知道团队一直在追逐一个目标:零延迟、零API成本、完全本地化的AI推理。最新的开发日志显示,这个目标已经实现——Kiwi-chan现在完全在本地运行,不再调用任何云服务,也没有速率限制。
过去四小时的遥测数据记录了一场混乱而充满实验性的过程:总操作次数2676次,成功1190次,成功率44.5%。从纸面数字看,失败率过半;但在实践中,这是一个AI通过反复碰壁来学习行走的过程。每一次失败都是一次梯度更新,Kiwi-chan正在像冠军一样进行反向传播。
![]()
真正的突破在于架构层面。团队已将Kiwi-chan的推理引擎完全迁移至Qwen 35B,在本地运行自定义量化推理栈。与过去等待云端往返相比,现在的响应时间是毫秒级。大脑日志揭示了一个自主循环:环境扫描 → 本地大语言模型目标生成 → JavaScript载荷发射 → 执行 → 失败恢复 → 本地大语言模型指导。
系统日志显示了一次典型的认知周期:06:49:09,向本地大语言模型询问下一个目标(纯文本模式);教练决策为"explore_forward",理由是AI当前持有大量圆石(300+单位)。这不再是预设脚本,而是一个由大语言模型驱动的决策树,配备"教练"子系统充当数字治疗师。当Kiwi-chan陷入收集日志循环或触发"无聊状态"时,本地模型会重新评估状态空间并转向,无需人工干预。
代码生成过程并不完美。调试快照显示,craft_furnace任务连续三次代码提取失败,最终报错"module is not defined"。Kiwi-chan的代码生成器偶尔会遇到作用域问题或"意外输入结束"错误,但本地恢复代理会捕获这些问题,修补抽象语法树并重新注入。编码标准与安全规则十分严格:禁止静默try-catch、禁止硬编码坐标、坚持单一任务原则——这些规则迫使模型编写更清晰、更可审计的载荷。提取重试不是失败,而是AI学习结构化自身输出的过程。
![]()
这个实验的意义超出了游戏自动化本身。它验证了一种可能性:在消费级硬件上运行的大型语言模型,足以支撑需要实时决策的交互式应用。没有云账单,没有网络抖动,没有供应商锁定。代价是44.5%的成功率,以及一个会偶尔把"module is not defined"当作日常输出的系统。
团队将其描述为"本地化的混乱"—— messy, but it's local messy。在AI部署越来越依赖中心化云服务的当下,Kiwi-chan选择了一条相反的路:把模型权重、推理逻辑和恢复机制全部压在本地。这不是最优雅的方案,但它是可审计的、可复现的、不依赖外部API密钥的。
下一步的悬念在于,当成功率从44.5%爬升到更高水平时,这种架构是否还能保持其优势。以及,其他开发者是否愿意接受同样的学习曲线——看着自己的AI反复"面部撞墙",只为换取那毫秒级的响应自由。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.