LM Studio 本地部署gemma4 + opencode 零成本开发教程

6 阅读3分钟

用 LM Studio 内置的本地服务器接口(无输出长度限制)+ OpenCode(Claude Code 同款终端)+ 内网穿透,实现公网远程调用,写代码一次性输出到底、不截断、不用按继续。

最终效果

  • 公司电脑 / 笔记本 / 外面任何设备 → 远程调用你家里台式机的 Gemma4 E4B
  • API 接口完全没有 2048 长度限制,想生成多长就多长
  • 终端使用体验 = Claude Code 一模一样
  • 全程不装 Ollama,不改动你现有模型配置

一、家里台式机端(只配置一次)

1. 让 LM Studio 服务器允许外部访问

  1. 打开 LM Studio
  2. 点左侧 Local Server(服务器图标)
  3. 点右上角 ⚙️ Server Settings
  4. 找到 Host
    • 把默认的 127.0.0.1
    • 改成 0.0.0.0
  5. Port 保持 1234 不动
  6. 勾选:
    • ✅ CORS 自动处理
    • ✅ Load default model on startup
  7. Save & Restart

2. 启动服务器

回到 Local Server 页面 → 点 Start Server 看到:

Server running on http://0.0.0.0:1234

就成功了。

重点: LM Studio 聊天界面有长度限制,但 API 接口没有任何限制,你远程调用想生成 10 万 token 都可以。


二、安装 OpenCode(Claude Code 同款终端)

只需要装 Node.js 一次:

  1. 下载安装:nodejs.org/dist/v20.18…
  2. 全程下一步

然后打开 CMD / PowerShell 运行:

npm install -g opencode

三、本地先测试(确认能连 LM Studio)

新建文件 opencode-config.json,内容复制这个:

{
  "model": "gemma-4-e4b",
  "apiBase": "http://localhost:1234/v1",
  "apiKey": "anything",
  "temperature": 0.2,
  "topP": 0.8,
  "maxTokens": 32768,
  "contextWindow": 32768
}

启动:

opencode --config opencode-config.json

测试一句话:

Python 写一个完整的学生管理系统,带增删改查、JSON 存储、菜单交互,一次性写完不要截断

你会看到:一次性输出到底,不会断!


四、公网远程访问(关键)

ngrok 免费版 1 分钟穿透出去。

1. 下载 ngrok

ngrok.com/download

2. 登录(复制你的 Authtoken)

ngrok config add-authtoken 你自己的token

3. 穿透 LM Studio 的 1234 端口

ngrok http 1234

会出现类似:

Forwarding  https://abc123.ngrok.io -> http://localhost:1234

这个 https://xxx.ngrok.io 就是你的公网 API 地址


五、在外/公司电脑远程使用

在你的笔记本/公司电脑上:

1. 同样装 Node.js + OpenCode(同上)

2. 新建远程配置 remote-config.json

{
  "model": "gemma-4-e4b",
  "apiBase": "https://abc123.ngrok.io/v1",  <<< 换成你自己的ngrok地址
  "apiKey": "anything",
  "temperature": 0.2,
  "maxTokens": 32768
}

3. 启动远程 Claude Code 体验

opencode --config remote-config.json

✅ 现在你在外面任何设备,都能:

  • 调用家里台式机的 Gemma4 E4B
  • 无限长度输出,不截断
  • 体验和 Claude Code 完全一致
  • 生成完整项目、自动写文件、自动重构

六、你最关心的:长度限制问题

LM Studio GUI 聊天界面:限制 2048 LM Studio API 接口(你现在用的):无任何限制 你设置 maxTokens: 32768 就能一次性输出 3 万 token,完全不会断。


七、一句话总结你现在的最强方案

  • 本地模型:LM Studio + Gemma4 E4B(你已配置好)
  • 编程体验:OpenCode = Claude Code 平替
  • 调用方式:API 远程公网访问
  • 长度限制:彻底解除
  • 全部免费