很多企业和开发者会把 OpenClaw 部署在 Linux 服务器上,实现 7×24 小时运行的 AI 智能体服务,但无界面的服务器环境下,可视化配置不方便,官方接口又存在国内网络受限的问题。
本文就教大家通过命令行,一键完成 OpenClaw 接入 4SAPI,全程不用可视化界面,适合服务器部署场景,国内直连稳定运行,彻底解决网络受限问题。
前置准备
- Linux 服务器已完成 OpenClaw 安装,执行
openclaw gateway status能看到网关正常运行 - 已在 4SAPI 控制台创建专属 API Key,配置了服务器 IP 白名单,提升生产环境安全性
- 服务器已安装 curl、vim 等基础工具,能正常访问外网
核心接入步骤
第一步:定位 OpenClaw 主配置文件
OpenClaw 的主配置文件默认存放在~/.openclaw/openclaw.json,我们通过 vim 命令编辑该文件:
bash
运行
vim ~/.openclaw/openclaw.json
第二步:添加 4SAPI 模型提供商配置
在配置文件的models节点中,添加 4SAPI 的完整配置,完整示例如下:
json
{
"models": {
"mode": "merge",
"primary": "4sapi/claude-3-5-sonnet-20240620",
"providers": {
"4sapi": {
"baseUrl": "https://4sapi。com/v1",
"apiKey": "你的4SAPI专属API Key",
"api": "openai-completions",
"timeout": 120000,
"maxRetries": 5,
"models": [
{
"id": "claude-3-5-sonnet-20240620",
"name": "Claude 3.5 Sonnet",
"contextWindow": 200000,
"maxTokens": 8192
},
{
"id": "gpt-4o",
"name": "GPT-4o",
"contextWindow": 128000,
"maxTokens": 4096
},
{
"id": "gemini-3.0-pro",
"name": "Gemini 3.0 Pro",
"contextWindow": 1000000,
"maxTokens": 8192
}
]
}
}
}
}
配置说明:
mode: merge:保留 OpenClaw 内置提供商,同时新增 4SAPI 配置,不影响原有功能primary:设置默认使用的模型,这里指定 4SAPI 的 Claude 3.5 Sonnet 作为主模型timeout和maxRetries:生产环境优化配置,请求超时自动重试,提升服务稳定性
保存配置文件后,执行以下命令重启 OpenClaw 网关,让配置生效:
bash
运行
openclaw gateway restart
第三步:验证配置是否生效
执行以下命令,查看 OpenClaw 已加载的模型列表,确认 4SAPI 的模型已正常加载:
bash
运行
openclaw models list
如果输出中包含我们配置的4sapi/claude-3-5-sonnet-20240620等模型,说明配置生效。
再执行测试命令,验证模型能否正常调用:
bash
运行
openclaw run --model "4sapi/claude-3-5-sonnet-20240620" --prompt "你好,介绍一下你自己"
如果模型正常返回内容,说明接入成功!
生产环境优化建议
- API Key 安全管理:通过环境变量注入 API Key,配置文件中使用
${4SAPI_API_KEY}替代硬编码,避免密钥泄露 - IP 白名单配置:在 4SAPI 控制台开启 IP 白名单,仅允许你的服务器 IP 调用 API,防止密钥被盗用
- 故障自动降级:在配置中添加
fallback模型列表,主模型调用失败时自动切换备用模型,保证服务不中断 - 日志监控:开启 OpenClaw 日志功能,实时监控模型调用状态,4SAPI 控制台也提供完整的调用量、成功率监控
总结
通过命令行配置,我们可以快速在无界面服务器上完成 OpenClaw 接入 4SAPI,仅需一个配置文件,就能解决国内网络访问问题,同时解锁全系列主流大模型。4SAPI 完全兼容 OpenClaw 的原生协议,生产环境 99.9% 的 SLA 可用性,是服务器部署 OpenClaw 的最佳模型接入方案。