![]()
最近,当OpenAI、谷歌、DeepSeek、阿里巴巴、腾讯和智谱等公司还在激烈角逐大模型的时候,当AI开发者和用户还在捣鼓智能体、Skills的时候,一款名为OpenClaw的AI助手突然面世并火爆出圈。OpenClaw一时间成为历史上增长最快的开源项目之一,那么OpenClaw到底是什么?它的最佳硬件拍档是谁?
OpenClaw是什么?
![]()
简单来讲,OpenClaw是一款在本地或自托管环境运行的开源AI助手,它是一款自主智能体,可以通过大模型执行任务,主要的用户界面是各类社交聊天平台。OpenClaw可以部署在macOS、Windows或者Linux平台,接入大模型之后,用户可以通过WhatsApp、Telegram、Slack、Discord、iMessage、Signal和飞书等社交工具与它交互、对话。
它除了能够像大模型那样回答问题,它还可以执行Shell指令、控制你的浏览器、读取或者写入文件、管理你的日程,甚至发送电子邮件、打开特定的应用程序等,这些都由你与OpenClaw沟通时所发的文字消息触发。
![]()
因此总体来讲,如果你在部署OpenClaw的设备上给它足够的权限,那么它可以在你的指示下像人类一样操控电脑。正因如此,OpenClaw才被称为真正的“贾维斯”,也正因如此,OpenClaw团队会在大家部署OpenClaw的时候弹出安全风险通知。众多开发者也建议用户将其部署在备用PC上来体验,并时刻注意安全风险。
![]()
有人将OpenClaw连接到现实世界,直接让它控制烧洗澡水的锅炉,定时并根据天气情况来烧热水,避免冬天没有热水洗澡。更有甚者,还有很多人通过OpenClaw来炒股、写自媒体文章和运营社群等。不少公司还尝试将OpenClaw作为内部的“公司助手”,接在各类SaaS和数据系统上做自动化。
部署OpenClaw需要哪些硬件?
![]()
我们如果想要体验OpenClaw,应该关心的重点是思考用什么大模型服务来接入OpenClaw(毕竟OpenClaw本身并不是大模型)。究竟是接入在线的云端大模型,还是接入本地部署的大模型?
使用云端大模型的最大缺点在于高昂的费用。因为在这个过程中,我们需要通过API接入使用云端大模型,OpenAI、谷歌等大模型提供商都是按Token数量收费,再加上OpenClaw的强大表现,自然会花费大量Token,输入百万token需要5美元,输出百万token又得25美元。如果是企业客户使用,那么Token费用可能会达到天价,这不是一般的初创团队、中小企业能承受的,长期使用本地部署显得势在必行。
![]()
另外,使用云端大模型还有隐私和安全方面的重大隐患。我们知道OpenClaw允许智能体在本机执行Shell、读写文件或者调用脚本,一旦通过云端大模型做“思考”和决策,攻击者就可以通过提示词注入或恶意数据,远程诱导大模型下指令,让OpenClaw在你的电脑上执行危险操作。
此外,为了让云端大模型“理解上下文”,OpenClaw可能还会把聊天记录、文件片段甚至密码提示、聊天历史等内容打包发给外部模型服务,这些内容一旦进入云端就受制于对方的隐私策略、日志策略和潜在的数据滥用风险。试想一下,如果你是公司老板,你愿不愿意将自家公司的核心数据暴露出去?
况且,接入云端大模型必然还会带来网络延迟和服务稳定性的问题,智能体可能在做一些操作时因为网络抖动、API限流而中断,造成半成品操作或“中途停手”的异常状态。由于大模型输出具有随机性和不可预期性,同样的提示词、同样的环境可能产生不同的操作路径,如果因网络问题导致中断,这在“系统级自动化”场景里意味着难以复现和回归测试,这对企业用户来讲得不偿失。
OpenClaw的最佳硬件拍档:AMD锐龙AI Max+ 395平台
相对于接入云端大模型,接入本地大模型对企业用户来讲才是最佳选择。这基本上就是把OpenClaw从“云端大号遥控器”变成了“自己机房里的AI中枢”。这样做在隐私、安全、成本、可控性和场景适配上都有非常明显的优势。
![]()
展开来看,在隐私和合规优势上,当OpenClaw搭配Ollama、LM Studio在本地通过GPU跑模型时,推理全过程(理解指令、读取文件和生成结果)都在本机完成,提示词、文档和中间产物不会发往云端API,这对财务报表、法律文书和客户数据等敏感场景非常关键。
第二个优势是成本结构更可控。用本地模型替代云端模型之后,整个智能体的链路不再每次调用都付双向的API费用,只需要一次性的硬件投入就能让高频自动化任务不再“烧Token”和“烧钱”。毕竟在本地部署各种开源大模型之后接入OpenClaw,Token数量是无限而且免费的。像OpenClaw创始人说的Minimax模型,也可以用两台搭载锐龙AI Max+ 395的桌面Mini AI工作站串联运行(有些带跳线支持一键启动组件集群),相较于顶配的Mac Studio,两台搭载锐龙AI Max+ 395的设备购买更便宜,也更可行。
![]()
另外,接入本地模型之后还有离线可用的优势,即OpenClaw的整个智能决策与工具调用可以完全离线操作,不用依赖网络环境。对于在工厂、机房、科室或者实验室等“封闭网络”中部署OpenClaw的单位和机构来说,本地模型可能是唯一可行的方案,这样可以在内网环境中实现日志分析、控制脚本执行等自动化。
![]()
AMD锐龙AI Max+ 395处理器优势突出,这款处理器采用“CPU+IGPU+NPU”异构架构,集成16大核心Zen 5 CPU、RDNA 3.5图形单元及高达50 TOPS算力的NPU,更通过UMA统一内存架构支持最高128GB内存,其中96GB可专用于显存。这彻底解决了本地大模型运行中的“显存焦虑”,使得其能够在本地流畅运行千亿参数规模的模型。
![]()
自正式发布以来,AMD锐龙AI Max+ 395处理器凭借强大的性能表现和出色的大模型部署表现,开辟出全新的迷你AI工作站细分市场。更重要的是,目前基于AMD锐龙AI Max+ 395处理器的迷你AI工作站产品已经进入各行各业,为用户带来领先的AI体验。
![]()
更重要的是,AMD锐龙AI Max+ 395迷你AI工作站非常适合用来部署本地大模型。根据我们以往的测试成绩,该平台能够畅跑70B稠密大模型(推理速度达到5.84 tokens/s),对于120B的MoE大模型,它的推理速度更是高达48.05 tokens/s,应对80B、30B等主流的MoE模型几乎是小菜一碟。
另外,由于AMD锐龙AI Max+ 395平台最高支持128GB内存,最高可分配96GB空间作为显存,因此它在部署大模型时具备相当充裕的硬件空间。我们在64GB显存的设置下尝试同时部署三个大模型:两个30B MoE大模型和一个14B稠密大模型。部署这三个大模型之后,系统只占用了大约50GB显存,剩下的硬件空间还比较充裕。
![]()
对OpenClaw用户来讲,将OpenClaw接入AMD锐龙AI Max+ 395平台部署的本地大模型之后,在使用OpenClaw的过程中可以同时接入多个模型同步调用,或者随时切换各种所需的大模型,若是换成其他Windows 11的独显平台,非但无法部署规模超大的模型(要知道台式机独显RTX 5090也仅有区区32GB的显存),就算勉强部署,硬件空间也非常吃紧,需要不断加载和卸载……无法对比调用更谈不上提升效率。
![]()
我们早前成功在搭载锐龙AI Max+ 395的机器上部署好了OpenClaw,同时还在本地部署了Qwen3-Coder-Next模型。因为模型部署在本地,所以我们使用OpenClaw的时候根本不用担心Token用量的成本问题。
更进阶的玩法是,将AMD锐龙AI Max+ 395迷你AI工作站视作本地大模型API中心,在局域网的其他设备上部署OpenClaw,然后远程接入使用AMD锐龙AI Max+ 395迷你AI工作站提供的本地大模型,这对初创团队、中小企业来讲是更符合实际的选择。
总结
总的来看,OpenClaw本身很有特色,功能强大,它代表着AI向前发展的下一个范式。对普通用户来说,可以快速体验到新一代AI助手的魅力。不过对于企业用户、AI开发者或者AI发烧友来说,接入本地模型才能在隐私安全、Token费用等方面取得保障,没有网络延迟,支持多个大模型本地同步调用,甚至还能多台设备串联提升部署能力,而AMD锐龙AI Max+ 395迷你AI工作站毫无疑问是目前市面上部署本地大模型的最佳平台,它的硬件空间宽裕,能够高效运行超大参数的大模型,可以作为本地AI算力中心来接入OpenClaw。OpenClaw与AMD锐龙AI Max+ 395平台堪称天作之合,值得大家选购进而加速本地AI部署。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.