开发者给AI装工具,装到几十个就开始卡。不是模型不够聪明,是协议本身在拖后腿——每加一个工具,提示词就膨胀一圈,上下文窗口很快被塞爆。一位工程师最近开源了替代方案,用845个工具实测,token消耗砍掉九成,多步骤任务成功率从"第一步就崩"拉到七成。
这套叫Elemm的协议,全称"Every Landmark Enables Massive Modularity",核心思路是"懒加载":不给AI塞完整工具说明书,只给一张动态地图,让它按需调取。传统MCP(Model Context Protocol)把每个工具的定义、参数、示例全写进提示词,工具一多就成了灾难。Elemm改发"清单文件",AI像查导航一样,只加载当前步骤需要的那几页。
![]()
具体数字来自GitHub API的极限测试。845个工具同时在线,Claude、Gemini、GPT-4旗舰模型全部通关,token用量比MCP少92%,操作步骤少84%。更狠的是边缘场景:用Qwen 3.5 0.8B这种"金鱼脑"小模型跑111工具的多步骤取证审计,Elemm成功率70%,标准MCP第一步就挂。
技术实现上,Elemm做了几层减法。自定义工具用Python装饰器一键封装成"Landmark";OpenAPI或GraphQL的接口,贴个URL就能被AI精准调用;存量工具可以无缝桥接进清单架构。网关层统一收口三类协议,发现机制按需触发,序列引擎支持单轮内多API串联(A的输出直接喂给B),不用AI来回倒腾。
安全设计是另一块重点。Guardian策略引擎拦截危险模式(比如delete_*操作),受限Landmark对AI不可见;Secure Vault把API密钥存在本地,服务端注入,LLM全程碰不到;SmartRepair把报错转成可执行的"修复建议",让AI自己纠错,而不是甩一堆堆栈跟踪让人类擦屁股。
Claude 4.6 Sonnet的测试反馈被写进文档:部署自主代理到大型API时,token消耗降超90%,单次任务成本从2.15美元压到0.25美元以下。另一位模型评价"不用同时 juggling 几百个工具定义",复杂API的发现效率质变。
作者把Elemm定位为"大动作模型"时代的基础设施。当AI从"人类给什么工具用什么"进化到"自主发现、安全掌控任意接口",硬编码工具定义的路会越走越窄。清单驱动、动态导航、上下文零膨胀,可能是下一代Agent的默认配置。
项目已开源,GitHub仓库含完整文档和基准测试。迁移成本是单条线索:现有工具包一层装饰器就能接入,不用重写业务逻辑。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.