用 LM Studio 内置的本地服务器接口(无输出长度限制)+ OpenCode(Claude Code 同款终端)+ 内网穿透,实现公网远程调用,写代码一次性输出到底、不截断、不用按继续。
最终效果
- 公司电脑 / 笔记本 / 外面任何设备 → 远程调用你家里台式机的 Gemma4 E4B
- API 接口完全没有 2048 长度限制,想生成多长就多长
- 终端使用体验 = Claude Code 一模一样
- 全程不装 Ollama,不改动你现有模型配置
一、家里台式机端(只配置一次)
1. 让 LM Studio 服务器允许外部访问
- 打开 LM Studio
- 点左侧 Local Server(服务器图标)
- 点右上角 ⚙️ Server Settings
- 找到 Host
- 把默认的
127.0.0.1 - 改成
0.0.0.0
- 把默认的
- Port 保持
1234不动 - 勾选:
- ✅ CORS 自动处理
- ✅ Load default model on startup
- 点 Save & Restart
2. 启动服务器
回到 Local Server 页面 → 点 Start Server 看到:
Server running on http://0.0.0.0:1234
就成功了。
重点: LM Studio 聊天界面有长度限制,但 API 接口没有任何限制,你远程调用想生成 10 万 token 都可以。
二、安装 OpenCode(Claude Code 同款终端)
只需要装 Node.js 一次:
- 下载安装:nodejs.org/dist/v20.18…
- 全程下一步
然后打开 CMD / PowerShell 运行:
npm install -g opencode
三、本地先测试(确认能连 LM Studio)
新建文件 opencode-config.json,内容复制这个:
{
"model": "gemma-4-e4b",
"apiBase": "http://localhost:1234/v1",
"apiKey": "anything",
"temperature": 0.2,
"topP": 0.8,
"maxTokens": 32768,
"contextWindow": 32768
}
启动:
opencode --config opencode-config.json
测试一句话:
用 Python 写一个完整的学生管理系统,带增删改查、JSON 存储、菜单交互,一次性写完不要截断
你会看到:一次性输出到底,不会断!
四、公网远程访问(关键)
用 ngrok 免费版 1 分钟穿透出去。
1. 下载 ngrok
2. 登录(复制你的 Authtoken)
ngrok config add-authtoken 你自己的token
3. 穿透 LM Studio 的 1234 端口
ngrok http 1234
会出现类似:
Forwarding https://abc123.ngrok.io -> http://localhost:1234
这个 https://xxx.ngrok.io 就是你的公网 API 地址。
五、在外/公司电脑远程使用
在你的笔记本/公司电脑上:
1. 同样装 Node.js + OpenCode(同上)
2. 新建远程配置 remote-config.json
{
"model": "gemma-4-e4b",
"apiBase": "https://abc123.ngrok.io/v1", <<< 换成你自己的ngrok地址
"apiKey": "anything",
"temperature": 0.2,
"maxTokens": 32768
}
3. 启动远程 Claude Code 体验
opencode --config remote-config.json
✅ 现在你在外面任何设备,都能:
- 调用家里台式机的 Gemma4 E4B
- 无限长度输出,不截断
- 体验和 Claude Code 完全一致
- 生成完整项目、自动写文件、自动重构
六、你最关心的:长度限制问题
LM Studio GUI 聊天界面:限制 2048
LM Studio API 接口(你现在用的):无任何限制
你设置 maxTokens: 32768 就能一次性输出 3 万 token,完全不会断。
七、一句话总结你现在的最强方案
- 本地模型:LM Studio + Gemma4 E4B(你已配置好)
- 编程体验:OpenCode = Claude Code 平替
- 调用方式:API 远程公网访问
- 长度限制:彻底解除
- 全部免费