New-API 整合多模型接口 + 精细化管控,本地 AI 模型秒变全网可用!cpolar 内网穿透实验室第 793 个成功挑战

0 阅读18分钟

在这里插入图片描述

软件名称:New-API

操作系统支持

New-API:依托 Docker 部署,支持飞牛 NAS(ARM 版)、Windows、Linux、macOS 等具备 Docker 环境的系统;

Ollama:支持 Windows、macOS、Linux;

cpolar:支持 Windows、macOS、Linux、树莓派、群晖 NAS、飞牛 NAS 等主流系统。

软件介绍

New-API 是基于 One API 升级的大模型接口聚合网关与资产分布管理系统,说白点就是 AI 接口的 “超级管家”—— 既能把 Ollama 这类本地模型、OpenAI/Claude/ 通义千问等云端 API,全都转换成标准的 OpenAI 接口格式,不用再适配各种乱七八糟的接口规则;又能可视化管理多用户 Token,给每个 Token 设调用额度、并发限制、有效期;还能把多个 API 放进 “通道池”,一个挂了自动切另一个,避免服务断档,每一次调用的消耗、延时都记得明明白白,不用再糊里糊涂算不清成本。

在这里插入图片描述

New-API 的出色功能

  1. 异构接口 “一键通”:不管是本地 Ollama 跑的 qwen3.5、通义千问,还是云端的 OpenAI GPT-3.5,不用改一行代码,都能转换成标准 OpenAI 接口,下游的 AI 客户端、工作流工具直接接,不用挨个适配;
  2. 精细化权限管控:给不同的人发不同的 Token,比如给家人的 Token 设每月 1000 次调用额度,给团队同事的设并发 3 次 / 秒,有效期 30 天,既能分享算力,又不怕被过度使用;
  3. 智能路由兜底:把免费和付费的 API 混放进通道池,系统会按权重轮着用,某个 API 失效了自动重试另一个,实测连续用 7 天,服务没断过一次;
  4. 全维度监控:每一个模型的调用次数、每一个 Token 的消耗量、每次请求的延时,都有图表看得清清楚楚,花了多少算力、多少资金,明明白白不踩坑。

在这里插入图片描述

实用场景

场景 1:个人多模型高效调用

  • 痛点:手里既有本地 Ollama 跑的轻量模型(省成本),又有云端 DeepSeek 的高精度模型(做复杂任务),每次换模型都要在写作、绘图客户端里改接口地址、密钥,切换一次要 1 分钟,一天切 10 次就是 10 分钟,还容易输错密钥;
  • 爽点:用 New-API 把两个模型整合到一个接口里,给本地模型设 “优先调用”,云端模型设 “兜底”,客户端只配一次地址和 Token,写稿时系统自动选模型,不用手动切换,实测一天能省出近 10 分钟的无效操作时间。

场景 2:小型工作室 AI 算力共享

  • 痛点:工作室用老旧服务器跑了 Ollama 的开源模型,想让 3 个远程办公的同事用,但没法限制每人的使用量,有人一天狂调用 200 次,导致服务器卡到没法用,而且同事不在局域网,连都连不上;
  • 爽点:New-API 给每个同事生成专属 Token,设每人每天 50 次调用额度,再配合 cpolar 把服务穿透到公网,同事不管在公司、家里还是咖啡厅,只要有网就能调用,服务器负载也能通过监控面板实时看,配置花了大概 10 分钟,后续没再出现过载的情况。

在这里插入图片描述

cpolar 内网穿透技术带来的便利

说白了,New-API 把本地 AI 服务整得再顺手,要是没 cpolar,也只能困在局域网里,出了家门就歇菜,而 cpolar 就是给这个 “AI 管家” 开了一扇通向全网的门,具体便利能说一箩筐:

  1. 不用折腾路由器:以前想把本地服务放到公网,得改路由器端口映射、找公网 IP,小白光看教程就头大,用 cpolar 的话,装完软件点几下就能创建隧道,把 New-API 的 3000 端口映射到公网,不用懂任何网络配置,实测从安装到出公网地址,也就 10 分钟;
  2. 随时随地用服务:不管是在公司加班想调用家里的 Ollama 模型写方案,还是出差在高铁上,用手机连公网地址进 New-API 后台改 Token 额度,甚至把 Token 发给异地的朋友,对方不用连你的 WiFi,直接就能用你的本地 AI 算力,不用再局限于 “只有在家才能用”;
  3. 固定地址不折腾:免费版 cpolar 虽然地址会换,但升级后能设固定二级子域名,一次配置好,后续不管重启设备还是换网络,地址都不变,不用每次都给朋友发新地址,也不用改客户端里的接口配置,用了两周下来,没再因为地址变过而重新调试;
  4. 安全又稳定:cpolar 的隧道是加密的,不用担心公网访问时数据泄露,而且支持多平台,不管是 N1 盒子的飞牛 NAS,还是 Windows 电脑,都能装,和 New-API 的 Docker 部署模式适配得很顺,跑了半个月没掉过线;
  5. 拓展性拉满:除了 New-API,家里局域网里的其他服务,比如远程桌面、NAS 文件管理,都能通过 cpolar 穿透出去,相当于一次部署,解决多个局域网服务的外网访问问题,不用给每个服务单独搞穿透。

在这里插入图片描述

总结

New-API 不是简单的 “接口转换器”,更像是给零散的 AI 算力搭了个 “中央控制台”—— 把本地 Ollama 的免费算力、各厂商的云端 API 捏合到一起,用可视化的方式管权限、管额度、管监控,解决了多模型切换麻烦、共享难管控的核心问题;而 cpolar 则是给这个控制台接上了 “外网电源线”,打破了局域网的物理限制,让原本只能在家用的 AI 服务,变成了能跟着人走的全网服务。

对折腾党来说,能把 N1 盒子这类闲置设备的价值榨干;对普通用户来说,不用懂复杂代码就能搞定跨网访问;对小团队来说,低成本实现了 AI 算力的共享和管控。两者组合起来,不是简单的 “1+1=2”,而是让个人和小团队的 AI 使用体验,从 “凑合用” 变成了 “顺手用”,不用再被接口、网络、权限这些琐事绊住脚。

AI中央控制台按照下面的教程,简简单单、轻轻松松就能搞定。

接下来,我们就从准备工作开始,带你利用手头的 N1 飞牛 NAS,在 5 分钟内快速部署一套专属的 AI 接口中转站,并一条龙打通公网访问,让你本地的 AI 老黄牛秒变安全可控、随时随地都能调用的云端大模型!

1 什么是New-API?

image-20260405203114578

New-API 是一款基于经典项目 One API 升级而来的新一代大模型接口聚合网关与资产分布管理系统。它向下能够统一对接并转换各类主流云端 LLM 服务(如 OpenAI、Claude、Gemini 以及各大国产模型)和本地开源模型(如 Ollama),向上为各种第三方 AI 客户端与应用提供标准化的 OpenAI API 协议支持。作为个人的全能 AI 服务中枢,它不仅大幅降低了异构接口的适配成本,还极大地提升了模型的管理与分发效率。其核心亮点突出体现在以下几个方面:

  • 异构接口自动转换:原生支持将数十种不同格式的大模型 API 乃至本地运行的 Ollama 服务,无缝跨界转换为标准的 OpenAI 接口格式,实现下游应用零门槛一键接入。
  • 精细化权限与额度管控:内置完善的可视化管理面板,支持多用户账户隔离。你可以针对每个下发出去的 Token 令牌设定精确的调用额度、并发频率限制及请求有效期,实现算力安全跨网分享。
  • 高可用智能路由调度:允许将多个免费或付费 API 整合进统一的模型通道池(Channel),系统支持按权重动态轮询及故障自动重试响应,有效规避单点失效,确保 AI 服务的高可用性。
  • 全透明数字资产监控:配备丰富清晰的图表看板,从每一个模型、每一次请求到每一个用户的 Token 消耗量与延时表现均被精准记录,资金消耗实现百分之百透明。

2 Docker一键部署New-API

没错,本期教程的折腾主力军依然是我们熟悉的老战友——N1 盒子!为了榨干它的最后一点剩余价值,我提前在 N1 上刷入了 ARM 版本的飞牛 NAS 系统。接下来,我们将直接利用飞牛系统自带的 Docker 环境,极速部署 New-API。

好了,接下来直接开始上教程!首先,打开你的飞牛Nas,在桌面点击【Docker】图标,进入后确保【Docker服务】处于开启状态: image-20260405204759072

然后进入【系统设置】中,选择【SSH】,将其启用: image-20260326194845722

接着,电脑摁下【Win + X】键,选择【终端(管理员)】打开PowerShell窗口: image-20260326202131520

然后在终端输入如下ssh命令,进行远程连接你的飞牛Nas终端:

# 其中,n1为你的飞牛Nas用户名,IP地址为你的飞牛IP地址
ssh n1@192.168.50.228

如下图所示: image-20260326202509419

接着,在终端执行如下命令,切换至root用户(输入密码时不会显示):

sudo -i

image-20260406190649190

然后执行如下命令,将一键部署脚本下载下来:

curl -L https://gitee.com/jun-wan/script/raw/master/new_api_deploy/deploy_sqlite.sh -o deploy_sqlite.sh && ls

image-20260406190726760

下载下来后,进行授权并且执行它:

chmod +x deploy_sqlite.sh && bash deploy_sqlite.sh

执行后,如下图,首先会询问选择安装的位置: image-20260406190852477

如果你外接扩展了硬盘,就会有如图显示中的扩展存储,我这里选择【2】,安装在外置硬盘上,然后进行回车:

image-20260406191101628

可以看到,成功部署完成了,让我们在浏览器中进行访问测试一下: image-20260406191138460

成功访问到页面!这样通过Docker一键部署的NewAPI就搞定啦!

3 配置New-API项目

部署好项目后,访问newapi默认需要进行初始化,在数据库检查页面选择【下一步】: image-20260406191534458

接着创建你的管理员账号和密码,创建完成后继续点击【下一步】: image-20260406191637535

接着来到使用模式部分,根据你需要的运行模式进行选择,这里选择【自用模式】,然后继续进行【下一步】: image-20260406191836563

点击【初始化系统】进行完成初始化: image-20260406191903396

初始化完成会来到如下页面: image-20260406192047354

如果默认没有登录,点击右上角【登录】按钮,输入刚才初始化的管理员账号密码即可进入后台: image-20260406192304063

4 下载安装测试Ollama

我们在上一步已经成功搭好了 New-API 这个“超级网关”,但既然要管理和分发接口,手里自然还需要跑一个本地 AI 大模型来作为“主力输出”。

如果你还没有玩过本地部署大模型,别慌!接下来我会在 Windows 电脑上,带你从零极速安装 Ollama 这个广受好评的大模型启动器,并以通义千问的小参数模型(qwen3.5:0.8b)为例,下载并运行它作为我们的接口测试对象。如果你早就折腾过 Ollama,或者只想单纯接入你现成的各类云端大厂 API,完全可以直接跳过本节,快进到第 5 节继续配置。

4.1 安装Ollama程序

为了方便大家能够完整的跟着教程走下去,这里演示在本地windows上进行安装一个Ollama程序(如局域网AI服务器或已经有相关API程序可跳过)。

重新打开一个【PowerShell】终端,执行如下命令,即可一键安装Ollama:

irm https://ollama.com/install.ps1 | iex

如下图所示: image-20260406193457644

接着,输入如下命令,可以查看ollama版本信息确认已安装:

ollama --version

image-20260406193542020

好了,这样ollama就成功安装上啦!

4.2 下载模型

我们可以在ollama的官网,进行搜索自己想要使用的模型,进行下载,官网地址:

https://ollama.com/search

如下图: image-20260406193707442

就以【qwen3.5:0.8b】模型为例,它比较小(大概1G左右),用来测试,我们回到终端执行如下命令进行下载和运行它:

ollama run qwen3.5:0.8b

如下图: image-20260406194552165

接着我们进行对话询问一下看看,这里输入【你好】为例,如下图所示:

image-20260406195325100

可以看到能够成功的思考和回答,我当前是3060ti显卡,基本3秒左右就输出完成了,还是挺快的!测试成功后,输入如下命令即可退出对话:

/bye

image-20260406195950548

这样就成功的下载并且部署好了一个ollama模型啦!

4.3 测试Ollama 的 API 服务

ollama支持标准的 OpenAI 兼容格式(/v1/chat/completions),端口默认为,我们可以在【PowerShell】终端执行如下命令:

Invoke-RestMethod -Method Post -Uri "http://localhost:11434/v1/chat/completions" -ContentType "application/json" -Body '{"model": "qwen3.5:0.8b", "messages": [{"role": "user", "content": "hi"}], "stream": false}'

image-20260406202907638

如果是在cmd终端,则是执行如下命令进行测试:

curl http://localhost:11434/v1/chat/completions -H "Content-Type: application/json" -d "{\"model\": \"qwen3.5:0.8b\", \"messages\": [{\"role\": \"user\", \"content\": \"你好\"}], \"stream\": false}"

image-20260406203039949

测试成功,可以看到ollama的API服务是正常的!

5 在New-API中配置Ollama渠道

登录到New-API后台,点击左侧菜单栏的【渠道管理】,然后点击【添加渠道】:

image-20260406204434806

接着,在弹出的侧边栏配置中,配置类型为【Ollama】,名称自定义一个即可,密钥也是随机输入一个(因为ollama默认不需要密钥进行连接),接着在API地址部分,填写你当前Windows的局域网IP地址(如果不知道可以终端执行如下命令获取):

ipconfig | findstr "IPv4"

如图: image-20260406205334322

接着,在模型部分,点击获取模型列表按钮,如果配置正确的话,就会弹出如下选择模型的窗口,选择我们刚才下载的【qwen3.5:0.8b】然后确定进行添加: image-20260406205428134

添加完成后,点击底部的提交按钮即可: image-20260406205754319

提交后,点击测试按钮或者展开按钮,进行测试,出现测试成功的提示,代表成功的把模型接入进来啦: image-20260406205934369

好了,如果你有本地局域网其他的AI服务器的话,也都可以接入进来,像这样: image-20260406210310390

然后你就可以在模型广场看到许许多多你本地AI服务器部署的模型啦: image-20260406210401156

6 创建令牌进行测试

点击左侧菜单栏的【令牌管理】,然后点击【添加令牌】:

image-20260406210616539

在弹出的侧边配置区域,填写好相关信息,然后点击提交: image-20260406210842749

创建成功后,点击复制令牌:

image-20260406210953041

然后通过N1部署的NewAPI就可以访问啦,比如在CMD中测试(注意修改令牌为自己的):

# 修改其中的192.168.50.228为你的N1飞牛Nas地址,以及sk-xxxxxxx
curl http://192.168.50.228:3000/v1/chat/completions ^
-H "Content-Type: application/json" ^
-H "Authorization: Bearer sk-MbmNWNXhaGrNlZRe6r1ZxEOoROiE5HpIfU6zL8353FJ4msZO" ^
-d "{\"model\": \"qwen3.5:0.8b\", \"messages\": [{\"role\": \"user\", \"content\": \"你好\"}], \"stream\": false}"

如下图:

image-20260406211437080

访问成功!这样我们就成功利用 New-API 把局域网里的 Ollama 模型,彻底包装成了一个拥有“正规编制”(带密钥鉴权 + 标准 OpenAI 格式)的云端接口啦!

7 穿透New-API实现公网访问

成功在局域网内调通了 Ollama 和 New-API,不过,目前这个接口地址依然只能在家里连着同一个局域网时才能调用。如果想在外面上下班路上随时随地榨干家里的算力,或者把刚才创建的 Token 令牌直接发给异地的朋友使用,我们还需要进行最后也是最关键的一步:内网穿透

没错!只要借助内网穿透工具,我们就能把飞牛 NAS 上的 New-API 端口直接映射到公网地址上。这样一来,无论你身在何处,只要手机或电脑有网,打开浏览器就能随时随地“钻”进家里的后台面板修改配置,发出去的 Token 也能通过公网被随时调用,和坐在家里局域网操作一模一样丝滑!

7.1 什么是cpolar?

image-20260311173747662

  • cpolar 是一款内网穿透工具,可以将你在局域网内运行的服务(如本地 Web 服务器、SSH、远程桌面等)通过一条安全加密的中间隧道映射至公网,让外部设备无需配置路由器即可访问。
  • 广泛支持 Windows、macOS、Linux、树莓派、群晖 NAS 等平台,并提供一键安装脚本方便部署。

7.2 安装cpolar

回到刚才的【PowerShell终端】窗口,执行如下命令进行一键安装:

sudo curl https://get.cpolar.sh | sh

image-20260127145907036

安装完成后,执行下方命令查看cpolar服务状态:(如图所示即为正常启动)

sudo systemctl status cpolar

image-20260329211307782

7.3 注册及登录cpolar web ui管理界面

访问cpolar官网,点击【免费注册】按钮,进行账号注册:

image-20250804085039567

注册完成后,在浏览器中输入飞牛NAS的IP地址+9200端口访问 web ui管理界面:

http://192.168.50.228:9200/

image-20260406212918527

输入刚才注册好的cpolar账号登录即可进入后台页面:

image-20260127145959685

7.4 穿透New-API实现远程访问

点击左侧菜单栏的【隧道管理】,展开进入【隧道列表】页面,页面下默认会有 2 个隧道:

  • ssh隧道,指向22端口,tcp协议
  • website隧道,指向8080端口,http协议(http协议默认会生成2个公网地址,一个是http,另一个https,免去配置ssl证书的繁琐步骤)

image-20260329211825602

点击【创建隧道】菜单,然后在配置区域填写一个【隧道名称】,本地地址填写【3000】端口,然后点击创建:

image-20260406213324080

创建完成后,来到侧边栏的【状态>在线隧道列表】里面,可以看到刚创建的这条隧道: image-20260406213547215

以https为例,复制公网地址,访问测试(加载稍慢,需耐心等待一下):

image-20260406213716945

可以看到,页面成功加载,大功告成!现在,即便你身处公司、咖啡厅甚至出差在高铁上,只要手机连着网,输入这个公网地址,就能随时随地“钻”回家里的 NAS 调大模型跑项目,甚至直接把生成的 API 接口和临时 Token 甩给异地的好友白嫖,简直爽到飞起!

8 固定二级子域名

不过,由于我们刚才使用的是免费随机域名,这个地址就像“灰姑娘的魔法”,每隔 24 小时就会强行刷新变脸一次。如果只是图个新鲜玩两天还好,但如果你想把它作为全天候生产力工具,或者接入了自动处理工作流的微信机器人(比如往期咱们提到的 OpenClaw),那每次域名突然失效带来的脱网断连,绝对会让你崩溃到抓狂!

为了让这套自建 AI 站拥有真正的安全感与商业级稳定性,强烈建议升级至 cpolar 的任意基础套餐,配置一个固定、专属的二级子域名。一次配置,终身免维护,再也无需担心半夜接口突然就挂了!

首先,进入官网的预留页面:

https://dashboard.cpolar.com/reserved

然后,选择【预留】菜单,即可看到【保留二级子域名】项,填写其中的【地区、名称、描述(可不填)】项,然后点击【保留】按钮,操作步骤图如下:

image-20260406214631576列表中显示了一条已保留的二级子域名记录:

  • 地区:显示为China TOP
  • 二级域名:显示为newapi01

注:二级域名是唯一的,每个账号都不相同,请以自己设置的二级域名保留的为主

保留后,接着进入侧边菜单栏的【隧道管理】下的【隧道列表】,可以看到名为【newapi】的隧道:

image-20260406214813662

点击【编辑】按钮进入编辑页面,修改域名类型为【二级子域名】,然后填写前面配置好的子域名,点击更新按钮:

image-20260406214849455

接着来到【状态】菜单下的【在线隧道列表】可以看到隧道名称为【newapi】的公网地址已经变更为【二级子域名+固定域名主体及后缀】的形式了:

image-20260406214928945

这里以https访问测试一下:

image-20260406215035035

访问成功!这样一个永久固定不变的地址就设置好啦!

Tips:首页显示的网站地址可以在【系统设置】>【服务器地址】中修改哦~

总结

本教程带你利用手边闲置吃灰的 N1 盒子与飞牛 NAS 环境,极速部署了一个基于 New-API 的大模型聚合中转站。通过将本地跑着的 Ollama 大模型与各类云端 API 集中接管,我们轻松实现了异构接口的无缝转换与核心的密钥额度管控;最后再借用 cpolar 获取固定内网穿透域名,彻底打通了局域网封锁的任督二脉。

这意味着,你成功从一个只能在家里局域网玩单机的大模型初学者,进阶为拥有私人专属高可用“多模型云枢纽”的网络极客!这套折腾组合拳不仅把家里的战损设备性能压榨到了极致,更让你在全世界的任意角落,都能随时随地享受到自由分发和调度 AI 算力的极速爽感!