以往大家习惯将 AI 能力依赖于公有云服务,而随着 OpenClaw 等智能体工具的快速普及,不管是个人开发者还是企业更需要一个 7×24 小时运行在本地、可直接响应指令的 “数字员工”。但云端方案存在的数据隐私风险与持续高昂的 API、Token 成本,让工业级智能体在规模化落地时面临瓶颈,独立部署大模型服务已成为企业构建自主可控 AI 能力的必然选择。
众智FlagOS 是一款完全开源的 AI 系统软件栈,支持多款异构 AI 芯片,可让 AI 模型与智能体轻松实现快速部署。本次 FlagOS 联合腾讯云 HAI(面向AI和科学计算的容器镜像中心),将 Qwen3-4B-hygon-flagos 模型镜像正式上线腾讯云 HAI 社区,开发者可直接拉取使用。基于该镜像,可快速在加速卡上运行FlagOS + OpenClaw,实现小模型驱动智能体执行,为企业和开发者从公有云 API 转向自建本地 AI 服务提供了可落地的实践方案。
安装及测试过程
基于 FlagOS 系统软件栈的跨芯能力,众智 FlagOS 社区把 Qwen3-4B 适配至多款GPU硬件。以下内容重点介绍如何部署与配置 FlagOS 版 Qwen3-4B的过程,仅用于复现实验结果,不影响对 Agent 能力的判断。
1. 安装Qwen3-4B-hygon-flagos
a. 首先,从 HAI 社区平台找到 Qwen3-4B-hygon-FlagOS,根据README.md拉取模型并启动服务。
以 ModelScope为例,下载模型权重
![]()
![]()
c. 通过下面的代码,启动容器。
这段代码可直接复制使用,也可以根据需要修改容器名,即在第4行--name=flagos对 name 进行修改。
![]()
d. 进入容器(如果上一步修改了容器名,这里要将flagos对 name 进行修改。
![]()
e. 启动服务
![]()
2. 安装配置OpenClaw
安装过程: 参见:https://github.com/openclaw/openclaw?spm=5176.28103460.0.0.696675514ZMILC , 通过源码方式,安装 OpenClaw。
![]()
配置过程:
a. 访问链接以下链接:https://cloud.tencent.com/developer/article/2625144,文中有给出通用的"模型配置"文件格式,可以直接套用,套用后命令如下。
需要注意的是,配置本地模型时,厂商一定是加速推理工具如vllm。
![]()
执行之后出现如下信息提示:
![]()
启用并设置为默认模型
![]()
![]()
![]()
可以看到当前默认模型已经切换为 Qwen3-4B-hygon-flagos。
b. 执行下面代码,可以看到模型已经切换完成。
![]()
![]()
可以看到模型已经切换完成。
3. 配置 channel 为QQ
参考文档: https://cloud.tencent.com/developer/article/2626045,这部分需要替换为自己的ID和secret。配置完成后,进行以下操作:
a. 启动openclaw网关, 命令如下:
![]()
b. 启动成功后,您可以在QQ软件中尝试和已经打通OpenClaw的QQ机器人进行单独聊天,或者在群里与QQ机器人进行对话。如果QQ机器人能够以AI的方式对话,则说明您已经成功完成OpenClaw应用接入QQ机器人。
![]()
接下来您就可以开始进一步探索OpenClaw接入QQ机器人之后的更多使用场景。
趋势展望
这次在 OpenClaw 连接QQ的场景中对 Qwen3-4B-hygon-flagos 进行了测试,发现Agent 的能力边界正在发生转移。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.