聚焦科学传播 弘扬科学精神
APP下载
扫码下载APP
融媒矩阵
  • 人民号
  • 科普号
  • 北京号
  • 微博号
  • 头条号
  • 腾讯号
  • 百度号
  • 央视频号
  • 抖音号
  • 微信号
QR Code
当前位置: 首页 正文
官宣|FlagOS 登陆腾讯云,快速在国产AI芯片部署OpenClaw+大模型,实现“养虾”自由
2026-03-03 来源:网络 阅读量:2.2万

过去,大家习惯通过公有云 API 获取 AI 能力;但随着 OpenClaw 爆火,个人和企业都需要本地 7×24 小时待命的 “数字员工”。奈何云端方案的隐私风险和高额 Token 成本,让工业级智能体很难大规模落地,自建本地大模型服务已成刚需。

近日,众智FlagOS联合腾讯云HAI,将 Qwen3‑4B‑hygon‑flagos 模型镜像正式上线至 HAI 社区,开发者可直接拉取使用。基于该镜像,用户能够在加速卡上快速运行 FlagOS + OpenClaw,以小模型驱动智能体执行任务,轻松完成从公有云到本地 AI 服务的无缝切换,同时深度参与到国产 AI 芯片标准化生态的建设中。

众智 FlagOS 是由智源研究院打造的开源 AI 系统软件栈,致力于构建统一、开放、安全的全栈平台,面向多元计算架构构建统一开源技术栈,实现一次开发、多芯复用、全域部署,推动国产 AI 芯片生态实现标准化适配与规模化落地。该平台支持多款异构 AI 芯片,可帮助用户快速部署模型与智能体。

安装及测试过程

基于 FlagOS 系统软件栈的跨芯能力,众智 FlagOS 社区把 Qwen3-4B 适配至多款GPU硬件。以下内容重点介绍如何部署与配置 FlagOS 版 Qwen3-4B的过程,仅用于复现实验结果,不影响对 Agent 能力的判断。

1.安装Qwen3-4B-hygon-flagos

a.首先,从 HAI 社区平台找到 Qwen3-4B-hygon-FlagOS,根据README.md拉取模型并启动服务。

以 ModelScope为例,下载模型权重

Plain Text

pip install modelscope

modelscope download --model Qwen/Qwen3-4B --local_dir

/share/Qwen3-4B

b.点击【部署当前镜像】获取镜像拉取命令,从 HAI 社区拉取镜像

Plain Text

docker pull haihub.cn/baai/flagrelease_hygon_qwen3:v1.0.0

c.通过下面的代码,启动容器。

这段代码可直接复制使用,也可以根据需要修改容器名,即在第4行--name=flagos对 name 进行修改。

SQL

#Container Startup

 

docker run -it \

--name=flagos \

--network=host \

--privileged \

--ipc=host \

--shm-size=16G \

--memory="512g" \

--ulimit stack=-1:-1 \

--ulimit memlock=-1:-1 \

--cap-add=SYS_PTRACE \

--security-opt seccomp=unconfined \

--device=/dev/kfd \

--device=/dev/dri \

--group-add video \

-u root \

-v /opt/hyhal:/opt/hyhal \

-v /share:/share \

haihub.cn/baai/flagrelease_hygon_qwen3:v1.0.0 \

/bin/bash

d.进入容器(如果上一步修改了容器名,这里要将flagos对 name 进行修改。

Plain Text

docker exec -it flagos bash

e.启动服务

Plain Text

flagscale serve qwen3

2.安装配置OpenClaw

安装过程: 参见:https://github.com/openclaw/openclaw?spm=5176.28103460.0.0.696675514ZMILC , 通过源码方式,安装 OpenClaw。

Python

git clone https://github.com/openclaw/openclaw.git

cd openclaw

 

pnpm install

pnpm ui:build # auto-installs UI deps on first run

pnpm build

 

pnpm openclaw onboard --install-daemon

 

 

# Dev loop (auto-reload on TS changes)

pnpm gateway:watch

配置过程:

a.访问链接以下链接:https://cloud.tencent.com/developer/article/2625144,文中有给出通用的"模型配置"文件格式,可以直接套用,套用后命令如下。

需要注意的是,配置本地模型时,厂商一定是加速推理工具如vllm。

SQL

pnpm openclaw config set 'models.providers.vllm_local' --json '{

"baseUrl": "http://1.15.51.106:9033/v1",

"apiKey": "anykey", #key不可为空,如果原来模型没有配置key,任意填写即可

"api": "openai-completions",

"models": [

{ "id": "Qwen3-4B-hygon-flagos", "name": "远程模型" }

]

}'

执行之后出现如下信息提示:

启用并设置为默认模型

Plain Text合并配置模型

pnpm openclaw config set models.mode merge

Plain Text切换为当前模式

pnpm openclaw models set vllm_local/Qwen3-4B-hygon-flagos

可以看到当前默认模型已经切换为 Qwen3-4B-hygon-flagos。

b.执行下面代码,可以看到模型已经切换完成。

Plain Text

pnpm openclaw configure

可以看到模型已经切换完成。

3.配置 channel 为QQ

参考文档: https://cloud.tencent.com/developer/article/2626045,这部分需要替换为自己的ID和secret。配置完成后,进行以下操作:

a.启动openclaw网关, 命令如下:

Plain Text

pnpm openclaw gateway

b.启动成功后,您可以在QQ软件中尝试和已经打通OpenClaw的QQ机器人进行单独聊天,或者在群里与QQ机器人进行对话。如果QQ机器人能够以AI的方式对话,则说明您已经成功完成OpenClaw应用接入QQ机器人。

接下来您就可以开始进一步探索OpenClaw接入QQ机器人之后的更多使用场景。

趋势展望

这次在 OpenClaw 连接QQ的场景中对 Qwen3-4B-hygon-flagos 进行了测试,发现Agent的能力边界正在发生转移

免责声明:该文章系转载,所涉内容非本站(号)观点,不构成投资、消费建议,仅供读者参考。文字和图片均由第三方提供,一切法律责任由提供方负责。

典赞时刻·2024首都科普年度榜单发布
2024年我和妈妈学科学
医路·新青年:述说新时代首都青年医者故事
要闻关注
京华启新程——中国式现代化的首都示范
2025年度“中国科学十大进展”发布,4项涉及北京科研主体
北京昌平添沉浸式航天科普新地标
一图速览!2026年科技工作这样干
QR Code
扫码分享当前页面