解锁本地大模型潜力:Trae 与 OpenStation 的协同之旅

80 阅读4分钟

在 AI 驱动软件开发的浪潮下,Trae 编程工具凭借高效的辅助能力成为开发者高频使用的利器,但其一短板却逐渐凸显 —— 原生不支持本地大模型接入。在数据隐私保护需求日益严苛、行业对本地化部署诉求渐增的背景下,这一限制无疑制约了工具在特定场景的应用。为此,本文提出Trae + Roo Code + OpenStation的协同方案,通过三步实现本地大模型与 Trae 的无缝对接,为开发者构建灵活、安全的 AI 编程环境。

一、核心痛点:Trae 的本地大模型接入局限

Trae 的模型管理功能仅支持通过 “模型 > 添加模型” 路径接入标准大模型服务,需填写服务商、模型 ID、API 密钥等信息,无法直接指定本地大模型服务地址(如图所示)。这意味着开发者无法将经过定制训练、适配特定项目需求的本地大模型集成至 Trae 工作流,在金融、政务等对数据本地化要求严格的领域,该局限尤为突出。

二、方案架构:三层协同突破工具限制

本方案通过 “部署 - 插件 - 对接” 的三层架构,逐层破解 Trae 的接入瓶颈:

  1. 底层部署层(OpenStation):作为一站式大模型推理服务平台,负责将本地大模型封装为标准化 API 服务;
  2. 中间适配层(Roo Code 插件):作为 Trae 与本地模型的桥梁,提供本地模型接入的配置入口;
  3. 应用层(Trae):借助插件调用本地模型服务,实现 AI 辅助编程功能。

三、分步实现:从本地模型部署到 Trae 接入全流程

第一步:基于 OpenStation 部署本地大模型服务

OpenStation 通过可视化操作简化部署流程,无需编写脚本即可完成本地模型服务搭建。以Qwen3-1.7B 模型(1.7B 参数量,4GB 显存需求)为例,具体步骤如下:

  1. 部署初始化:登录 OpenStation 后,进入 “模型服务> 新增部署”,系统自动提示 “确认目标节点已添加”“模型已下载”,规避前置操作遗漏;
  2. 模型来源选择:支持平台模型库下载或本地路径上传,此处直接选取模型库中预下载的 Qwen3-1.7B,页面同步显示模型参数量、数据类型(BF16)、显存需求等关键信息;
  3. 节点与引擎配置:本次以选择本地工作站的 NVIDIA A100-PCIE-40GB 显卡作为部署节点为例,平台自动检测资源匹配度并提示 “模型可在当前节点部署”;推理引擎默认选用 SGLang(GPU),支持自定义切换至 vLLM 等引擎;
  4. 部署提交与监控:在 “部署确认” 页校验服务名称、模型、节点等配置后提交,通过实时日志查看节点检查、GPU 驱动验证、服务启动进度,约 5 分钟后服务状态变为 “正常”,获取生成的API 访问地址与Model ID。

服务部署配置信息如下:

模型服务部署完成后如下图:

第二步:为 Trae 安装 Roo Code 插件

Roo Code 插件不仅提供本地模型接入能力,还支持自定义提示词适配不同开发场景,安装流程如下:打开 Trae 的 “插件市场”,搜索 “Roo Code”,选择对应版本(如 V3.26.5),按照界面提示完成安装。

第三步:通过 Roo Code 对接本地模型服务

将 OpenStation 部署生成的服务信息配置至 Roo Code,实现与 Trae 的联动:

  1. 进入 Roo Code 插件设置界面,选择 “OpenAI Compatible” 作为 API 提供商;
  2. 在 “OpenAI 基础 URL” 中填入 OpenStation 生成的 API 访问地址(格式如http://10.128.4.13:8080/v1);
  3. 填写 Model ID(如 “qwen”),启用 “流式传输” 功能,完成配置后保存。

四、OpenStation 快速部署指南

项目地址github.com/fastaistack…

  1. 在线安装(支持Ubuntu22.04 / 20.04 / 18.04系列及Centos7系列)
curl -O  https://fastaistack.oss-cn-beijing.aliyuncs.com/openstation/openstation-install-online.sh 
bash openstation-install-online.sh --version latest

也可直接下载在线安装包(openstation-pkg-online-latest.tar.gz),上传至Linux服务器后执行:

tar -xvzf openstation-pkg-online-latest.tar.gz
cd openstation-pkg-online-latest/deploy
bash install.sh true

2. 离线安装(仅支持Ubuntu 22.04.2/20.04.6/18.04.6)

点击「离线 OpenStation 安装包下载」,参考上述**OpenStation项目地址**中离线安装文档。

部署完成后,登录页面如下:

五、总结

Trae + Roo Code + OpenStation 的协同方案,成功突破了 Trae 原生不支持本地大模型接入的限制:OpenStation 以低门槛、可视化的部署能力解决了本地模型的服务化难题,Roo Code 插件搭建了工具间的适配桥梁,最终为开发者提供了兼顾效率与安全的 AI 编程解决方案。该方案不仅适用于 Qwen3 系列模型,还可拓展至其他主流本地大模型,为数据敏感型场景、定制化开发需求提供了技术支撑,具有较强的实践与推广价值。