📰 来源: 博客园
New API 是一个开源的 LLM 网关平台,把多个 AI 服务商的接口聚合成标准 OpenAI 兼容 API。企业采购了各家模型的 Token Plan 之后,需要一个统一入口来分发、管控、计费。这篇文档记录的是:怎么用 New API 把这件事做成。
这是整件事的地基。New API 支持 Docker 单容器、Docker Compose、1Panel、宝塔、集群部署等多种方式。企业内网场景推荐 Docker Compose,自带 postgres 和 Redis,数据不丢。
一台 Linux 服务器(Ubuntu/CentOS),已装好 Docker 和 Docker Compose。建议最低 4 核 8G 。
1.2 Docker Compose 部署
git clone https://github.com/QuantumNous/new-api.git
cd new-api
git checkout v1.0.0-rc.4 #请checkout最新版本,这是2026年5月7日最新版本
vim docker-compose.yml # 根据实际修改端口、密码(改成强密码,默认都是123456)
docker compose up -d
项目自带的 docker-compose.yml 已配好 postgres、Redis 和 New API 三个服务,只需改端口和密码。
服务启动后访问 http://服务器IP:3000(端口建议使用80,并做外网的映射),首次打开会进入初始化引导,设置管理员账号密码。记好这个密码,后面所有管理操作都靠它。
docker logs -f new-api # 看实时日志
docker logs --tail=100 new-api # 看最近100行
docker ps # 查看服务状态
docker compose down # 在compose.yml同级目录执行,停止移除服务
docker compose up -d # 在compose.yml同级目录执行,重启服务
在"系统设置"→"速率限制设置"中,启用用户模型请求速率限制:
内部进行账号统一管理,不允许除管理员外的任何人登录该平台,所以做账号限制
在"系统设置"→"系统设置"中的配置登录注册处。关闭允许通过免密码进行注册和允许新用户注册
在"系统设置"→"顶栏管理"中关闭模型广场、关于
在"系统设置"→"绘图设置"中关掉全部绘图功能(如果你有生图模型就在此注意配置)
三、CodingPlan 的采集与分发
通常建议仅从一家采购同样的模型,提供团队内部统一使用
模型厂商采购 API Key
│
▼
New API 添加渠道,统一录入 Key
│
▼
渠道分组,按部门/项目隔离
│
▼
创建订阅套餐,设定配额与有效期
│
▼
分发令牌给用户,绑定分组与限额
│
▼
用户通过令牌调用标准 API
│
▼
日志审计与看板,全链路监管
不同部门、不同项目可能需要用不同的 Key 池。通过"分组"实现渠道隔离:创建分组(如"研发一部"、"产品二部"),在渠道中指定该渠道属于哪个分组,用户只能访问自己分组内的渠道。
在"系统设置"→"分组与模型定价设置"的分组管理中添加内部各部门的分组。
每个组视人数给分配账号,一般设定比人数多1个~2个账号即可
模型定价的主要目的,是为了统一内部模型叫法,给模型设置统一的价格,方便后续的管理
xxx-glm-4.7:1$/1M Token
xxx-kimi-k2.5:2$/1M Token
xxx-kimi-k2.6:3$/1M Token
xxx-glm-k2.6:3$/1M Token
每个采购到的 API Key 对应一个渠道。管理员登录后进入「渠道」页面:
厂商-key结尾4字符3.4 多 Key 轮询
同一个服务商采购了多个 Key 时,用"多 Key 模式":一个渠道挂多个 Key,系统自动轮询使用。单个 Key 失败自动跳过,恢复后重新启用。支持两种轮询策略:顺序轮询和加权随机(建议按照加权随机的模式使用)。
3.5 模型映射(自定义模型名)
企业内部通常希望给模型起统一的、有辨识度的名字,而不是用服务商那串原始 ID。New API 的模型映射功能可以在渠道层面把自定义名映射到实际的模型 ID。
配置位置:编辑渠道 → 高级配置 → 模型映射,填入 JSON 格式的映射关系。
{
"xxxx-kimi-k2.5": "kimi-k2.5",
"xxxx-kimi-k2.6": "kimi-k2.6",
"xxxx-glm-4.7": "glm-4.7",
"xxxx-glm-5.1": "glm-5.1"
}
左侧 xxxx-kimi-2.6 是用户调用时传的模型名,右侧 kimi-2.6 是上游服务商的实际模型 ID。
xxxx-kimi-2.6),不要从下拉列表选model: "xxxx-kimi-2.6" 就会自动路由到 kimi-2.6右侧的值必须是对应服务商的真实模型 ID,可以在渠道的模型下拉列表中查看。映射关系只在当前渠道生效,不同渠道可以有不同的映射规则。

四、令牌(Token)管理
管理员统一创建令牌和分发,令牌是调用 API 的凭证。
用户在「令牌管理」页面创建,可配置:
New API 对外暴露标准 OpenAI 兼容接口和Claude接口。团队里不管用Opencode还是Claude都可以支持,直接把 Base URL 指向 New API 的地址就行。
5.1 Opencode接入配置
修改~/config/opencode/opencode.jsonc
http://你的服务器IP:PORT/v1(openAI)API Key: 管理员提供给的 New API 中创建的令牌
{
"plugin": [
"oh-my-openagent@latest"
],
"provider": {
🔗 原文链接: 点击阅读原文
文章评论