漫谈OpenClaw

OpenClaw · Moltbot · ClawDBot
最近在人工智能领域大火的应用技术非OpenClaw莫属,正好年前有读者朋友问起这个问题,借此机会,今天就给读者朋友们简单讲讲OpenClaw及其未来发展方向,如有不当之处,敬请斧正。
PS:欢迎读者朋友们在留言区有效交流,后续和文章无关的留言内容一律拉黑处理。
什么是OpenClaw

OpenClaw,原名ClawDBot/Moltbot,是一个可以本地化部署的AI代理工具。如果说之前的AI大模型是一本本大小不一的百科全书,那么OpenClaw就是一个自己的小机器人,可以帮助用户处理一些任务。OpenClaw官方的宣传也称自己是“真正会做事的AI”,从用户主动查阅询问,到AI Agent主动执行,OpenClaw虽然还有各种各样的问题,可用性还不是那么高,但毕竟是在智能化的方向上迈出了一大步。
![]()
计算机科学家对于降低人在计算机设备上的工作量,提升计算机易用性的探索从未停止过。在Office97的时代,就可以提供宏录制功能,用户可以通过录制宏,对宏进行编程来处理一些重复的批量工作;后来,出现了一项叫做RPA(机器人流程自动化)的技术,它可以服务于一些专业领域,如财务,法律,政务等,RPA通过调用脚本去完成固定UI中的一些操作,同时也可以调用一些AI技术,如OCR,Retinaface等;而OpenClaw的出现则改变了AI Agent的工作逻辑,它通过对自然语言的分析和处理,自主规划调用步骤和所调用的工具,最终完成任务,是“目标导向”而非“过程导向”,这样的工作流程更符合人类处理工作的逻辑,也更加的灵活。OpenClaw和RPA的关系,就像是CPU和ASIC的区别,一个适应性强,更加智能,另一个更适应重复的专业工作。
OpenClaw的工作流程非常易于理解。其起始于Agent对用户指令的理解,通过Fuction Calling向LLM模型传达任务;LLM基于对指令的理解拆解计划步骤,并将结构化的文本还给Agent;Agent通过模型上下文协议MCP,使用结构化文本来调用应用功能;应用功能完成后,将处理结果还给Agent。如此重复执行,一直到整体任务完成。由此,我们也可以看到为什么部分场景下OpenClaw还存在可用性问题的原因——这是一个关键任务链,如果应用的上下文有缺失,LLM模型理解有误,生成的Json结构化文本中存在错误,MCP协议封装有误,都会导致最终的执行存在问题,这方面的生态建设和应用互适配才刚刚开始,OpenClaw还需要时间。

OpenClaw用起来为什么这么贵

OpenClaw确实方便,但如果自己掏钱在云端部署使用了一段时间的朋友,都会对云服务厂商寄来的账单瞠目结舌,原因无他,实在是太贵了。
![]()
如果你是裸金属租赁整台H200服务器,当我没说,只不过每月数万的费用很显然不是普通用户可以承担的,所以绝大多数OpenClaw的尝鲜者,都是在使用按Token用量收费的云服务,不巧的是,OpenClaw绝对是一个Token杀手。
OpenClaw Agent为什么需要消耗这么多的Token呢?
首先,它的提示词实际上是很长的。不要以为我们给Agent下的指令就一句话,就以为提示词就只有那么长,还记得前面讲的吗,它要生成一个结构化的文本,这才是系统内部真正的Prompt,这个输入提示词会消耗大量的Token,而且每次调用都要重发一遍;其次,OpenClaw之所以智能,是因为其全上下文累积的设定,Agent不会也不能“忘记”前面的记忆,而记忆就是累积的上下文,工作越复杂,记忆内容越多,上下文越长,消耗的Token数也就越多,而且不光是系统的上下文,调用工具的输出也会被写入上下文中;除了上下文长,我们还有可能低估了Agent的调用次数,一次任务可能需要数十次的调用,想象一下,如果一项工作是“查询某项数据,再对数据进行分析,编辑成EXCEL图表进行邮件发送”,这里面每次生成上下文和调用工具输出内容会是一个什么样的数量级,再乘以调用次数,所消耗的Token数就会非常夸张了;最后,是否选择了正确的调用模型也是很重要的因素之一,调用一次Qwen3 8B,和调用一次DeepSeek 671B,所消耗的成本是不一样的,我们可能免费的大模型用习惯了,确实不太清楚在官网上调用满血版的大模型有多贵,而OpenClaw可以用它的账单帮我们清醒清醒,巩固一下这个认知。
所以针对这个问题,很多工程师也在寻求解决方案。可以看到,OpenClaw真正的花钱大户是“记忆”,那么就从“记忆”入手来精简用量,比如采用类似多级缓存的记忆架构,并在固定时间段将记忆存储,形成记忆库,并且定期清除和压缩优先级低调用少的记忆,压缩记忆库,这样不仅可以减少长期使用后的Token消耗,还可以使得Agent越来越符合自己的使用习惯,用起来越来越顺手。当然,优化的方法有很多,我只是讲了其中的一种,但是在短期之内,OpenClaw对于Token的消耗量依然会偏大,这就导致了它的使用成本还是会偏高。

未来OpenClaw的商业化路径

一款产品商业化的本质,就是让普通收入的用户群体都能用得起。移动互联网的兴起,也是在移动互联网流量提速降费之后开始的,当年“下载部电影房子都得归移动公司”的时候是没有办法发展移动互联网行业的。所以,OpenClaw想要落地,除了要解决现有的技术问题和生态问题,更重要的是解决贵的问题,毕竟如果一个星期要花掉几百块,这个人工智障助理还不如不请。
![]()
如何降本增效?抛开英伟达收购Groq这件事情不谈,我们只讨论最基本的商业和技术逻辑,那就是降低数据中心侧开销和降低芯片硬件开销。
一颗芯片放在数据中心的时候,它的运营开销其实是很大的,以H200为例,即便不讨论基建成本,真正的GPU成本在数据中心设备总成本占比还不到一半,如果不使用H200这样的高端GPU而使用4090/5090,GPU成本占比还会进一步降低。此外,数据中心设备的能耗开销也是很大的一笔钱,其中只有一半多一点落到GPU上,其他的都是服务器机头,网络,存储,管理节点,制冷设备消耗掉了。
而如果把芯片扔到小区机房里,则这上面的很多成本都可以被省掉。本人曾经做过7年通信,其中包含一年海外经历,还是见过不少小区机房的,国外发展中国家小区机房的环境更是令人发指,就这样设备竟然还能正常运行,不得不佩服像す桑这样硬件工程师的设计水平。扔到小区机房可以省掉大量的网络,存储,服务器机头的开销,就近调用,毕竟绝大多数任务并不需要调取671B这样的满血模型。把设备扔到小区机房这样的事情,运营商和互联网企业已经在做了,叫做CDN,Content Delivery Network,那么在未来加入AI推理能力之后,就可以叫做IDN了,Inference Delivery Network。将Agent的记忆文件存在本地,在绝大多数时候调用便宜的IDN Token,确实可以大幅降低成本。
既然设备扔到了小区机房里,那么很显然不能再使用娇贵的H200了,采用专门的LPU/ASIC芯片来降低成本,提高设备鲁棒性,会是一个非常好的选择。目前国内也已经有多家企业在做这方面的边缘推理芯片,采用数据流架构,主打一个低功耗高速推理,结合芯片成本和单位Token价格只有传统GPU的十分之一甚至更低,而随着未来SRAM和ReRAM的成熟,可能会进一步降低综合使用成本。除了降低成本,持续减少Token用量,建设OpenClaw生态,加强和应用的适配也是必须重视的方向之一。
未来,OpenClaw将会以一体机本地化部署+TaaS服务的方式运营。对于个人用户,Token as a Service(TaaS)是最便捷最经济的方式,而对于企业或政府用户,出于安全,定制化和长期大用量的考虑,使用OpenClaw一体机进行本地化部署会是比较合适的服务方式。
机器人会是未来重要的生产力工具之一,而机器人控制各类设备的方式显然应当和人类不同。和人类需要通过输入设备来对计算机进行控制不同,机器人可以直接通过网络鉴权后控制各种计算机设备而不是通过灵巧手敲击键盘或者控制鼠标,这比传统控制方法高效很多。所以将OpenClaw和机器人进行结合也会是一项非常有价值的工作,是真机器人和“电子机器人”的互相成就,也会是机器人领域的重要研究方向之一。

虽然OpenClaw目前还存在着各种各样的问题,但OpenClaw确实是最接近“真正会做事的AI”的一款产品,假以时日,OpenClaw一定会对人类的生产力提升作出重大贡献。

作者:铁云
欢迎关注铁云文摘
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.