最近 AI Agent 非常火。
很多人已经在本地部署了 OpenClaw,但很快就会遇到一个问题:
AI 只能在本地电脑使用,一旦离开电脑就没法用了。
于是我做了一件事:
把 OpenClaw + 内网穿透结合起来。
现在我的架构是:
手机 / 公司电脑
│
│公网访问
▼
内网穿透服务器
│
▼
家里电脑 OpenClaw
│
▼
本地大模型
结果就是:👉 我在外面也可以远程使用自己的 AI Agent。
甚至可以:
- 远程写代码
- 远程运行脚本
- 远程操作电脑
- 远程调用本地大模型
下面分享完整部署过程。
一、最终效果
部署完成后你可以:
在手机浏览器访问:
https://你的域名
然后直接和 AI 对话:
帮我生成一个Python爬虫
AI 会在你的 家里电脑:
- 生成代码
- 保存文件
- 执行程序
真正实现:
远程 AI 助手。
二、准备环境
建议配置:
| 项目 | 推荐 |
|---|---|
| CPU | i5以上 |
| 内存 | 8GB |
| Node | 22+ |
| Python | 3.9+ |
需要安装:
- Node.js
- Git
- Python
- pnpm
如果你是开发者,这些基本都有。
三、本地部署 OpenClaw
安装:
npx openclaw@latest
安装完成后启动:
openclaw start
如果看到:
OpenClaw Gateway started
说明 AI Agent 已经运行。
默认服务地址:
http://localhost:3000
此时只能 本机访问。
四、部署本地大模型(推荐)
为了实现完全本地 AI,我们可以安装 Ollama。
安装:
curl -fsSL https://ollama.com/install.sh | sh
下载模型:
ollama pull qwen2.5
运行模型:
ollama run qwen2.5
然后在 OpenClaw 配置:
provider: ollama
model: qwen2.5
base_url: http://localhost:11434
现在:
AI 大脑 + Agent 都在本地电脑。
五、问题来了:只能本地访问
如果你现在离开电脑,比如:
- 在公司
- 在咖啡店
- 在手机上
你会发现:
http://localhost:3000
根本打不开。
原因很简单:
这是内网地址。
解决方案只有两种:
- 云服务器部署
- 内网穿透
但云服务器有两个问题:
- GPU贵
- 带宽贵
所以最好的方式其实是:
内网穿透。
六、用内网穿透暴露 OpenClaw
原理其实很简单:
公网请求
│
▼
穿透服务器
│
▼
家里电脑
把本地服务映射到公网。
例如把:
localhost:3000
映射成:
https://ai.xxx.com
配置示例:
local_port = 3000
remote_port = 6001
protocol = tcp
启动后就可以公网访问。博主这里使用的是锐通网络内网穿透(传送门),还有几款如向日葵、樱花云都是不错选择
七、远程使用 AI Agent
部署完成后:
你在任何地方都可以访问:
https://ai.xxx.com
然后输入:
帮我写一个Java接口
AI 会:
- 思考任务
- 生成代码
- 保存文件
- 执行程序
整个过程都发生在:
你家里的电脑。
但你可以:
远程控制它。
八、几个非常实用的玩法
1 远程 AI 写代码
在手机上输入:
生成一个SpringBoot接口
AI 自动生成:
Controller
Service
Repository
直接保存到项目。
2 自动化脚本
例如:
每天抓取股票数据
AI 可以:
- 写脚本
- 定时运行
- 保存结果
3 AI 远程运维
你可以说:
查看服务器日志
AI 会:
- SSH连接
- 获取日志
- 分析问题
九、AI Agent + 内网穿透的价值
这套架构其实非常强:
本地大模型
+
AI Agent
+
内网穿透
就等于拥有:
一个随时在线的 AI 助手。
而且:
- 数据不出本地
- 成本几乎为0
- 可以24小时运行
十、未来可能的玩法
很多人还没意识到:
AI Agent + 自动化 + 内网穿透
其实已经可以做很多事情,比如:
- 自动化开发助手
- AI运维助手
- 自动化数据采集
- 私人 AI 助手
未来甚至可能变成:
AI 数字员工。