Token 不再焦虑:用 GPUStack + OpenClaw 搭一个“无限用”的本地 AI 助手(下)

0 阅读2分钟

四、首次授权与测试

  1. 在飞书中向机器人发送消息

  2. 首次会提示 Pairing 授权

  3. 在服务器执行:

openclaw pairing approve feishu

​编辑

如果出现反复授权,并提示:duplicate plugin id detected

可尝试:rm -rf ~/.openclaw/extensions/feishu
openclaw gateway restart

五、实战示例:让机器人给 GPUStack 项目标星

  1. 准备 GitHub PAT

使用 Tokens (classic)

勾选 repo 权限

​编辑

  1. 写入环境变量

vim ~/.openclaw/.env

​编辑

重启:openclaw gateway restart

  1. 飞书中发送指令

​编辑

​编辑

六、常用指令说明

 /new:开启新会话

/status:查看 Bot 状态

/reset:重置上下文

 /model:查看 / 切换模型

七、OpenClaw 实用命令与资源入口

常用 CLI 命令

openclaw logs --follow
openclaw doctor
openclaw gateway --help
openclaw dashboard
openclaw tui

文档与生态

 📘 docs.openclaw.ai 

 🌐 clawhub.ai

结语:当 AI 成为基础设施,而不是消耗品

回过头看,Token 焦虑的本质,并不是模型贵,而是 AI 被当成了一种“外部消耗资源”。

当模型运行在云端、能力掌握在别人手里时,
我们习惯于精打细算、限制使用、控制调用频率。

而当模型真正跑在自己的 GPU 上,
当推理能力、上下文和工具调用都变成基础设施的一部分,
AI 的角色也随之发生了变化——

它不再是一次次付费调用的 API,
而是一个随时可用、长期在线、持续演进的工作助手

这正是 GPUStack 与 OpenClaw 组合所带来的意义:
让 AI 从“成本项”,回归为“生产力”。

如果你已经拥有 GPU 资源,
不妨亲手试一次,把 AI 真正接进你的日常工作流里。

当你不再关心 Token 的时候,
你才会真正开始用好 AI。