网易首页 > 网易号 > 正文 申请入驻

无限Tokens!OpenClaw的最佳硬件拍档:AMD锐龙AI Max+ 395平台

0
分享至



最近,当OpenAI、谷歌、DeepSeek、阿里巴巴、腾讯和智谱等公司还在激烈角逐大模型的时候,当AI开发者和用户还在捣鼓智能体、Skills的时候,一款名为OpenClaw的AI助手突然面世并火爆出圈。OpenClaw一时间成为历史上增长最快的开源项目之一,那么OpenClaw到底是什么?它的最佳硬件拍档是谁?

OpenClaw是什么?



简单来讲,OpenClaw是一款在本地或自托管环境运行的开源AI助手,它是一款自主智能体,可以通过大模型执行任务,主要的用户界面是各类社交聊天平台。OpenClaw可以部署在macOS、Windows或者Linux平台,接入大模型之后,用户可以通过WhatsApp、Telegram、Slack、Discord、iMessage、Signal和飞书等社交工具与它交互、对话。

它除了能够像大模型那样回答问题,它还可以执行Shell指令、控制你的浏览器、读取或者写入文件、管理你的日程,甚至发送电子邮件、打开特定的应用程序等,这些都由你与OpenClaw沟通时所发的文字消息触发。



因此总体来讲,如果你在部署OpenClaw的设备上给它足够的权限,那么它可以在你的指示下像人类一样操控电脑。正因如此,OpenClaw才被称为真正的“贾维斯”,也正因如此,OpenClaw团队会在大家部署OpenClaw的时候弹出安全风险通知。众多开发者也建议用户将其部署在备用PC上来体验,并时刻注意安全风险。



有人将OpenClaw连接到现实世界,直接让它控制烧洗澡水的锅炉,定时并根据天气情况来烧热水,避免冬天没有热水洗澡。更有甚者,还有很多人通过OpenClaw来炒股、写自媒体文章和运营社群等。不少公司还尝试将OpenClaw作为内部的“公司助手”,接在各类SaaS和数据系统上做自动化。

部署OpenClaw需要哪些硬件?



我们如果想要体验OpenClaw,应该关心的重点是思考用什么大模型服务来接入OpenClaw(毕竟OpenClaw本身并不是大模型)。究竟是接入在线的云端大模型,还是接入本地部署的大模型?

使用云端大模型的最大缺点在于高昂的费用。因为在这个过程中,我们需要通过API接入使用云端大模型,OpenAI、谷歌等大模型提供商都是按Token数量收费,再加上OpenClaw的强大表现,自然会花费大量Token,输入百万token需要5美元,输出百万token又得25美元。如果是企业客户使用,那么Token费用可能会达到天价,这不是一般的初创团队、中小企业能承受的,长期使用本地部署显得势在必行。



另外,使用云端大模型还有隐私和安全方面的重大隐患。我们知道OpenClaw允许智能体在本机执行Shell、读写文件或者调用脚本,一旦通过云端大模型做“思考”和决策,攻击者就可以通过提示词注入或恶意数据,远程诱导大模型下指令,让OpenClaw在你的电脑上执行危险操作。

此外,为了让云端大模型“理解上下文”,OpenClaw可能还会把聊天记录、文件片段甚至密码提示、聊天历史等内容打包发给外部模型服务,这些内容一旦进入云端就受制于对方的隐私策略、日志策略和潜在的数据滥用风险。试想一下,如果你是公司老板,你愿不愿意将自家公司的核心数据暴露出去?

况且,接入云端大模型必然还会带来网络延迟和服务稳定性的问题,智能体可能在做一些操作时因为网络抖动、API限流而中断,造成半成品操作或“中途停手”的异常状态。由于大模型输出具有随机性和不可预期性,同样的提示词、同样的环境可能产生不同的操作路径,如果因网络问题导致中断,这在“系统级自动化”场景里意味着难以复现和回归测试,这对企业用户来讲得不偿失。

OpenClaw的最佳硬件拍档:AMD锐龙AI Max+ 395平台

相对于接入云端大模型,接入本地大模型对企业用户来讲才是最佳选择。这基本上就是把OpenClaw从“云端大号遥控器”变成了“自己机房里的AI中枢”。这样做在隐私、安全、成本、可控性和场景适配上都有非常明显的优势。



展开来看,在隐私和合规优势上,当OpenClaw搭配Ollama、LM Studio在本地通过GPU跑模型时,推理全过程(理解指令、读取文件和生成结果)都在本机完成,提示词、文档和中间产物不会发往云端API,这对财务报表、法律文书和客户数据等敏感场景非常关键。

第二个优势是成本结构更可控。用本地模型替代云端模型之后,整个智能体的链路不再每次调用都付双向的API费用,只需要一次性的硬件投入就能让高频自动化任务不再“烧Token”和“烧钱”。毕竟在本地部署各种开源大模型之后接入OpenClaw,Token数量是无限而且免费的。像OpenClaw创始人说的Minimax模型,也可以用两台搭载锐龙AI Max+ 395的桌面Mini AI工作站串联运行(有些带跳线支持一键启动组件集群),相较于顶配的Mac Studio,两台搭载锐龙AI Max+ 395的设备购买更便宜,也更可行。



另外,接入本地模型之后还有离线可用的优势,即OpenClaw的整个智能决策与工具调用可以完全离线操作,不用依赖网络环境。对于在工厂、机房、科室或者实验室等“封闭网络”中部署OpenClaw的单位和机构来说,本地模型可能是唯一可行的方案,这样可以在内网环境中实现日志分析、控制脚本执行等自动化。



AMD锐龙AI Max+ 395处理器优势突出,这款处理器采用“CPU+IGPU+NPU”异构架构,集成16大核心Zen 5 CPU、RDNA 3.5图形单元及高达50 TOPS算力的NPU,更通过UMA统一内存架构支持最高128GB内存,其中96GB可专用于显存。这彻底解决了本地大模型运行中的“显存焦虑”,使得其能够在本地流畅运行千亿参数规模的模型。



自正式发布以来,AMD锐龙AI Max+ 395处理器凭借强大的性能表现和出色的大模型部署表现,开辟出全新的迷你AI工作站细分市场。更重要的是,目前基于AMD锐龙AI Max+ 395处理器的迷你AI工作站产品已经进入各行各业,为用户带来领先的AI体验。



更重要的是,AMD锐龙AI Max+ 395迷你AI工作站非常适合用来部署本地大模型。根据我们以往的测试成绩,该平台能够畅跑70B稠密大模型(推理速度达到5.84 tokens/s),对于120B的MoE大模型,它的推理速度更是高达48.05 tokens/s,应对80B、30B等主流的MoE模型几乎是小菜一碟。

另外,由于AMD锐龙AI Max+ 395平台最高支持128GB内存,最高可分配96GB空间作为显存,因此它在部署大模型时具备相当充裕的硬件空间。我们在64GB显存的设置下尝试同时部署三个大模型:两个30B MoE大模型和一个14B稠密大模型。部署这三个大模型之后,系统只占用了大约50GB显存,剩下的硬件空间还比较充裕。



对OpenClaw用户来讲,将OpenClaw接入AMD锐龙AI Max+ 395平台部署的本地大模型之后,在使用OpenClaw的过程中可以同时接入多个模型同步调用,或者随时切换各种所需的大模型,若是换成其他Windows 11的独显平台,非但无法部署规模超大的模型(要知道台式机独显RTX 5090也仅有区区32GB的显存),就算勉强部署,硬件空间也非常吃紧,需要不断加载和卸载……无法对比调用更谈不上提升效率。



我们早前成功在搭载锐龙AI Max+ 395的机器上部署好了OpenClaw,同时还在本地部署了Qwen3-Coder-Next模型。因为模型部署在本地,所以我们使用OpenClaw的时候根本不用担心Token用量的成本问题。

更进阶的玩法是,将AMD锐龙AI Max+ 395迷你AI工作站视作本地大模型API中心,在局域网的其他设备上部署OpenClaw,然后远程接入使用AMD锐龙AI Max+ 395迷你AI工作站提供的本地大模型,这对初创团队、中小企业来讲是更符合实际的选择。

总结

总的来看,OpenClaw本身很有特色,功能强大,它代表着AI向前发展的下一个范式。对普通用户来说,可以快速体验到新一代AI助手的魅力。不过对于企业用户、AI开发者或者AI发烧友来说,接入本地模型才能在隐私安全、Token费用等方面取得保障,没有网络延迟,支持多个大模型本地同步调用,甚至还能多台设备串联提升部署能力,而AMD锐龙AI Max+ 395迷你AI工作站毫无疑问是目前市面上部署本地大模型的最佳平台,它的硬件空间宽裕,能够高效运行超大参数的大模型,可以作为本地AI算力中心来接入OpenClaw。OpenClaw与AMD锐龙AI Max+ 395平台堪称天作之合,值得大家选购进而加速本地AI部署。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
李玮锋:董方卓不行曼联会花钱买他?李铁踢英超70分钟没体能了

李玮锋:董方卓不行曼联会花钱买他?李铁踢英超70分钟没体能了

林子说事
2026-02-13 17:18:58
黄仁勋:真正改变我一生的不是天赋,而是我母亲的意志力

黄仁勋:真正改变我一生的不是天赋,而是我母亲的意志力

陈语丝
2026-02-12 23:46:07
小杨哥67亿卖公司,震惊行业!

小杨哥67亿卖公司,震惊行业!

大佬灼见
2026-02-12 16:21:35
牢A命中,被一窝端16人都是女留学生

牢A命中,被一窝端16人都是女留学生

雪中风车
2026-01-28 13:23:54
欧美权贵吃人盛宴牵邪教献祭,惊悚程度超百倍

欧美权贵吃人盛宴牵邪教献祭,惊悚程度超百倍

聚焦分享每日热点
2026-02-04 22:12:41
巴拿马运河港口争夺战进入执行阶段,香港长和指望司法援助

巴拿马运河港口争夺战进入执行阶段,香港长和指望司法援助

椰青美食分享
2026-02-13 17:11:40
贾玲巴黎周“一脸男相”!不爱笑也没梨涡眼神犀利,梳大背头好酷

贾玲巴黎周“一脸男相”!不爱笑也没梨涡眼神犀利,梳大背头好酷

轩逸阿II
2026-01-20 07:54:29
连续跌停!又一超级大妖股崩了?

连续跌停!又一超级大妖股崩了?

财经锐眼
2026-02-12 16:35:08
俄超球队回应与浙江队大规模冲突:不知道中国球队为啥这么不明智

俄超球队回应与浙江队大规模冲突:不知道中国球队为啥这么不明智

林子说事
2026-02-13 13:28:38
于东来深夜发文:胖东来永不上市 最高管理层60岁前必须退出权力岗位

于东来深夜发文:胖东来永不上市 最高管理层60岁前必须退出权力岗位

闪电新闻
2026-02-13 11:50:20
越南人谈中越战争:一代人的牺牲和贡献,换来的是40年的经济滞后

越南人谈中越战争:一代人的牺牲和贡献,换来的是40年的经济滞后

阿校谈史
2026-02-12 17:17:41
断崖式下跌!中国人突然不爱喝酒了?真相太扎心!

断崖式下跌!中国人突然不爱喝酒了?真相太扎心!

达文西看世界
2026-01-18 20:56:11
女生要主动起来跟想象中完全不一样!网友:让我递毛巾 瞬间开窍了

女生要主动起来跟想象中完全不一样!网友:让我递毛巾 瞬间开窍了

另子维爱读史
2026-01-26 18:39:06
欧盟开了几天会,一直在吵架,美媒:欧洲人只会躲在城堡里

欧盟开了几天会,一直在吵架,美媒:欧洲人只会躲在城堡里

真正能保护你的
2026-02-14 02:16:39
22岁中国男子巴厘岛旅游时溺亡,去年刚大学毕业,原计划除夕前回国和家人团圆,同伴发声

22岁中国男子巴厘岛旅游时溺亡,去年刚大学毕业,原计划除夕前回国和家人团圆,同伴发声

极目新闻
2026-02-13 22:17:39
争议!国际乒联新规降低顶级荣誉门槛,世乒赛1冠即可获得复刻杯

争议!国际乒联新规降低顶级荣誉门槛,世乒赛1冠即可获得复刻杯

乒谈
2026-02-13 23:01:55
审批通过!知名女歌手要来武汉,连唱3天!

审批通过!知名女歌手要来武汉,连唱3天!

越乔
2026-02-12 22:39:38
放心吧,我们不是日本,也不会有“失去的三十年”

放心吧,我们不是日本,也不会有“失去的三十年”

六爷阿旦
2026-01-19 17:10:26
正面回怼奇葩亲戚是啥体验?网友:我家里人也说我说话太厉害了

正面回怼奇葩亲戚是啥体验?网友:我家里人也说我说话太厉害了

解读热点事件
2026-02-06 00:51:21
9500万人口的东北,去年生了38万,死亡91万!情况比想象中更严重

9500万人口的东北,去年生了38万,死亡91万!情况比想象中更严重

狐狸先森讲升学规划
2025-08-01 18:30:03
2026-02-14 02:55:00
微型计算机 incentive-icons
微型计算机
MC评测室团队
8581文章数 21560关注度
往期回顾 全部

科技要闻

独家探访蔡磊:答不完的卷子 死磕最后一程

头条要闻

8千元的迷你小马一夜爆火 马主:1天排泄次数达十几次

头条要闻

8千元的迷你小马一夜爆火 马主:1天排泄次数达十几次

体育要闻

这张照片背后,是米兰冬奥最催泪的故事

娱乐要闻

大衣哥女儿风光出嫁,农村婚礼超朴素

财经要闻

华莱士母公司退市 疯狂扩张下的食安隐忧

汽车要闻

探秘比亚迪巴西工厂 居然是这个画风!

态度原创

艺术
房产
健康
本地
公开课

艺术要闻

砸25亿,中原第一高楼绿地造,坐标郑州!

房产要闻

三亚新机场,又传出新消息!

转头就晕的耳石症,能开车上班吗?

本地新闻

下一站是嘉禾望岗,请各位乘客做好哭泣准备

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版