claude-code-model-router 1.2.3 → 1.3.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
package/README.md CHANGED
@@ -1,326 +1,373 @@
1
- [![npm version](https://img.shields.io/npm/v/claude-code-model-router.svg)](https://www.npmjs.com/package/claude-code-model-router)
2
- [![npm downloads](https://img.shields.io/npm/dm/claude-code-model-router.svg)](https://www.npmjs.com/package/claude-code-model-router)
3
-
4
-
5
- # Claude Code Model Router
6
-
7
- 一个轻量级 API 网关,让你在使用 Claude Code 时可以切换到第三方 AI 模型。
8
-
9
- 支持 Windows、macOS、Linux 跨平台使用。
10
-
11
- ## 快速开始
12
-
13
- ### 方式一:使用 npx(推荐)
14
-
15
- ```bash
16
- # 1. 初始化配置文件
17
- npx claude-code-model-router init
18
-
19
- # 2. 编辑 .env 文件,填入 API Keys
20
-
21
- # 3. 启动网关
22
- npx claude-code-model-router start
23
-
24
- # 4. 新开终端,启动 Claude Code
25
- # 第三方模型(网关模式):
26
- npx claude-code-model-router claude
27
-
28
- # 官方订阅(默认模式):
29
- claude
30
- ```
31
-
32
- ### 方式二:全局安装
33
-
34
- ```bash
35
- npm install -g claude-code-model-router
36
-
37
- # 然后使用 ccmr 命令
38
- ccmr init
39
- ccmr start
40
-
41
- # 启动 Claude Code
42
- ccmr claude # 第三方模型(网关模式)
43
- claude # 官方订阅(默认模式)
44
- ```
45
-
46
- ## 命令说明
47
-
48
- ```bash
49
- # 初始化配置文件
50
- npx claude-code-model-router init
51
-
52
- # 启动网关
53
- npx claude-code-model-router start
54
- npx claude-code-model-router start --port 9000 # 指定端口
55
-
56
- # 查看可用模型
57
- npx claude-code-model-router models
58
-
59
- # 启动 Claude Code(网关模式,使用第三方模型)
60
- npx claude-code-model-router claude
61
- npx claude-code-model-router claude --gateway-port 9000 # 自定义网关端口
62
-
63
- # 启动 Claude Code(官方订阅)
64
- claude
65
- ```
66
-
67
- ### Claude Code 原生参数支持
68
-
69
- `ccmr claude` 命令完整支持 Claude Code 的原生启动参数:
70
-
71
- ```bash
72
- # YOLO 模式(跳过所有权限确认)
73
- ccmr claude --dangerously-skip-permissions
74
-
75
- # 继续上一次会话
76
- ccmr claude --continue
77
- ccmr claude -c
78
-
79
- # YOLO 模式 + 继续上一次会话
80
- ccmr claude --dangerously-skip-permissions --continue
81
-
82
- # 恢复指定会话(交互式选择)
83
- ccmr claude --resume
84
- ccmr claude -r
85
-
86
- # 恢复指定会话 ID
87
- ccmr claude --resume <session-id>
88
-
89
- # 调试模式
90
- ccmr claude --debug
91
- ccmr claude --verbose
92
-
93
- # 连接 IDE
94
- ccmr claude --ide
95
-
96
- # 指定权限模式
97
- ccmr claude --permission-mode bypassPermissions
98
-
99
- # 打印模式(非交互式)
100
- ccmr claude -p "你的问题"
101
- ccmr claude --print --output-format json "你的问题"
102
- ```
103
-
104
- **支持的完整参数列表:**
105
-
106
- | 参数 | 说明 |
107
- |------|------|
108
- | `-c, --continue` | 继续最近的会话 |
109
- | `-r, --resume [id]` | 恢复指定会话或打开会话选择器 |
110
- | `--fork-session` | 恢复时创建新会话 ID |
111
- | `--dangerously-skip-permissions` | 跳过所有权限检查(YOLO 模式) |
112
- | `--permission-mode <mode>` | 权限模式:acceptEdits, bypassPermissions, default, dontAsk, plan |
113
- | `-p, --print` | 打印模式(非交互式) |
114
- | `--output-format <format>` | 输出格式:text, json, stream-json |
115
- | `--model <model>` | 指定模型(覆盖网关路由) |
116
- | `--system-prompt <prompt>` | 自定义系统提示 |
117
- | `--add-dir <dirs...>` | 添加额外目录权限 |
118
- | `-d, --debug` | 调试模式 |
119
- | `--verbose` | 详细输出 |
120
- | `--ide` | 自动连接 IDE |
121
- | `--gateway-port <port>` | 指定网关端口(默认 8080) |
122
-
123
- > **提示:** 任何 Claude Code 原生支持的参数都可以直接传递给 `ccmr claude`
124
-
125
- ## 支持的模型
126
-
127
- | 短名称 | 版本别名 | 模型 | 提供商 |
128
- |--------|----------|------|--------|
129
- | `deepseek` | `deepseek-v3.2`, `ds` | DeepSeek V3.2 | DeepSeek |
130
- | `kimi` | `kimi-k2.5`, `moonshot` | Kimi K2.5 | Moonshot |
131
- | `minimax` | `minimax-m2.7`, `mm` | MiniMax M2.7 | MiniMax |
132
- | `qwen` | `qwen3.5-plus`, `tongyi` | Qwen3.5 Plus | 阿里云 |
133
- | `glm` | `glm-5`, `zhipu` | GLM-5 | 智谱 AI |
134
- | `kat` | `kat-coder`, `kuaishou` | KAT-Coder-Pro V2 | 快手 |
135
-
136
- ### 模型参数
137
-
138
- | 模型 | Context Window | Max Output Tokens |
139
- |------|----------------|-------------------|
140
- | DeepSeek V3.2 | 128K | 128K |
141
- | Kimi K2.5 | 256K | 32K |
142
- | MiniMax M2.7 | 200K | 192K |
143
- | Qwen3.5 Plus | 1M | 64K |
144
- | GLM-5 | 200K | 128K |
145
- | KAT-Coder-Pro V2 | 256K | 80K |
146
-
147
- ## 配置
148
-
149
- ### 环境变量 (.env)
150
-
151
- ```bash
152
- DEEPSEEK_API_KEY=sk-xxx # https://platform.deepseek.com/
153
- KIMI_API_KEY=sk-xxx # https://www.kimi.com/
154
- MINIMAX_API_KEY=xxx # https://platform.minimax.io/
155
- QWEN_API_KEY=sk-xxx # https://dashscope.console.aliyun.com/
156
- GLM_API_KEY=xxx # https://open.bigmodel.cn/
157
- KAT_API_KEY=xxx # https://wanqing.streamlakeapi.com/
158
- ```
159
-
160
- ### 配置文件 (models.yaml)
161
-
162
- 可以自定义模型配置、添加别名等。运行 `init` 命令会生成模板。
163
-
164
- ## 使用场景
165
-
166
- ### 双模式使用(配置完全隔离)
167
-
168
- 本工具通过独立的配置目录实现完全隔离,让你可以同时使用官方订阅和第三方模型:
169
-
170
- ```
171
- ┌─────────────────────────────────────────────────────────────────┐
172
- │ 模式1: 官方订阅(默认) │
173
- │ 命令: claude │
174
- 配置: ~/.claude/settings.json │
175
- │ 用途: 使用 Claude 官方模型(订阅额度) │
176
- └─────────────────────────────────────────────────────────────────┘
177
-
178
- ┌─────────────────────────────────────────────────────────────────┐
179
- │ 模式2: 第三方模型(网关) │
180
- │ 命令: npx claude-code-model-router claude │
181
- │ 配置: ~/.claude-gateway/settings.json │
182
- │ 用途: 使用第三方 AI 模型(DeepSeek, GLM, Qwen 等) │
183
- └─────────────────────────────────────────────────────────────────┘
184
- ```
185
-
186
- #### 为什么配置是隔离的?
187
-
188
- - **官方模式**使用 `~/.claude/` 配置目录(Claude Code 默认)
189
- - **网关模式**使用 `~/.claude-gateway/` 配置目录(独立隔离)
190
- - 两个配置目录完全独立,互不干扰
191
- - 在网关模式切换模型不会影响官方模式
192
-
193
- #### 使用步骤
194
-
195
- **第一步:启动网关**
196
- ```bash
197
- npx claude-code-model-router start
198
- ```
199
-
200
- **第二步:选择使用模式**
201
-
202
- **使用官方订阅(终端 A):**
203
- ```bash
204
- claude
205
- ```
206
- - 使用官方 Claude 模型(Sonnet, Opus, Haiku)
207
- - 消耗订阅额度
208
- - 配置存储在 `~/.claude/`
209
-
210
- **使用第三方模型(终端 B):**
211
- ```bash
212
- npx claude-code-model-router claude
213
- ```
214
- - 使用第三方 AI 模型(DeepSeek, GLM-5, Qwen3.5, KAT-Coder 等)
215
- - 按 API 使用量付费
216
- - 配置存储在 `~/.claude-gateway/`
217
-
218
- #### 跨平台支持
219
-
220
- 所有命令在 Windows、macOS、Linux 上完全相同,无需修改。
221
-
222
- ### 在 Claude Code 中切换模型
223
-
224
- #### 官方模式(直接 `claude` 启动)
225
-
226
- ```
227
- /model sonnet # Claude Sonnet 4.5
228
- /model opus # Claude Opus 4.5
229
- /model haiku # Claude Haiku 3.5
230
- ```
231
-
232
- #### 网关模式(`npx ... claude` 启动)
233
-
234
- 使用短名称或版本别名切换模型:
235
-
236
- ```bash
237
- # 使用短名称(向后兼容)
238
- /model deepseek # 切换到 DeepSeek V3.2
239
- /model qwen # 切换到 Qwen3.5 Plus
240
- /model glm # 切换到 GLM-5
241
- /model kimi # 切换到 Kimi K2.5
242
- /model minimax # 切换到 MiniMax M2.7
243
- /model kat # 切换到 KAT-Coder-Pro V2
244
-
245
- # 使用版本别名(明确指定版本)
246
- /model deepseek-v3.2 # DeepSeek V3.2
247
- /model glm-5 # GLM-5
248
- /model minimax-m2.7 # MiniMax M2.7
249
- /model kimi-k2.5 # Kimi K2.5
250
- /model qwen3.5-plus # Qwen3.5 Plus
251
- /model kat-coder # KAT-Coder-Pro V2
252
- ```
253
-
254
- **重要:** 两个模式的配置完全独立,在网关模式切换模型不会影响官方模式!
255
-
256
- ## API 端点
257
-
258
- | 端点 | 方法 | 说明 |
259
- |------|------|------|
260
- | `/v1/messages` | POST | Anthropic Messages API |
261
- | `/v1/models` | GET | 列出可用模型 |
262
- | `/health` | GET | 健康检查 |
263
-
264
- ## 开发
265
-
266
- ```bash
267
- # 克隆项目
268
- git clone https://github.com/luwill/Claude-Code-Model-Router.git
269
- cd Claude-Code-Model-Router
270
-
271
- # 安装依赖
272
- npm install
273
-
274
- # 开发模式
275
- npm run dev
276
-
277
- # 构建
278
- npm run build
279
-
280
- # 本地测试
281
- npm link
282
- ccmr start
283
- ```
284
-
285
- ## 故障排除
286
-
287
- ### 端口被占用
288
-
289
- ```bash
290
- # 使用其他端口
291
- npx claude-code-model-router start --port 9000
292
- ```
293
-
294
- ### API Key 错误
295
-
296
- 1. 检查 .env 文件中的 Key 是否正确
297
- 2. 确认账户有余额
298
- 3. 运行 `npx claude-code-model-router models` 查看状态
299
-
300
- ## 更新日志
301
-
302
- ### v1.2.0
303
- - 更新 GLM 模型至 GLM-5 版本
304
- - 更新 MiniMax 模型至 M2.7 版本
305
- - 更新 Qwen 模型至 Qwen3.5 Plus 版本
306
- - 更新 Kimi 模型至 K2.5 版本
307
- - 更新各模型的 context window 和 max tokens 参数
308
- - 新增版本别名支持(如 `glm-5`、`minimax-m2.7`、`qwen3.5-plus`、`kimi-k2.5`)
309
-
310
- ### v1.1.0
311
- - 更新 MiniMax 模型至 M2.1 版本
312
- - 更新 GLM 模型至 4.7 版本
313
- - 更新 GLM API 端点至 `https://open.bigmodel.cn/api/anthropic`
314
- - 新增版本别名支持(如 `glm-4.7`、`minimax-m2.1`)
315
- - 优化日志显示,显示具体模型版本
316
- - 更新各模型的 context window 和 max tokens 参数
317
-
318
- ### v1.0.1
319
- - 添加 Claude Code 原生参数支持
320
-
321
- ### v1.0.0
322
- - 初始版本发布
323
-
324
- ## License
325
-
326
- MIT
1
+ [![npm version](https://img.shields.io/npm/v/claude-code-model-router.svg)](https://www.npmjs.com/package/claude-code-model-router)
2
+ [![npm downloads](https://img.shields.io/npm/dm/claude-code-model-router.svg)](https://www.npmjs.com/package/claude-code-model-router)
3
+
4
+
5
+ # Claude Code Model Router
6
+
7
+ 一个轻量级 API 网关,让你在使用 Claude Code 时可以切换到第三方 AI 模型。
8
+
9
+ 支持 Windows、macOS、Linux 跨平台使用。
10
+
11
+ ## 快速开始
12
+
13
+ ### 方式一:使用 npx(推荐)
14
+
15
+ ```bash
16
+ # 1. 初始化配置文件
17
+ npx claude-code-model-router init
18
+
19
+ # 2. 编辑 .env 文件,填入 API Keys
20
+
21
+ # 3. 启动网关
22
+ npx claude-code-model-router start
23
+
24
+ # 4. 新开终端,启动 Claude Code
25
+ # 第三方模型(网关模式):
26
+ npx claude-code-model-router claude
27
+
28
+ # 官方订阅(默认模式):
29
+ claude
30
+ ```
31
+
32
+ ### 方式二:全局安装
33
+
34
+ ```bash
35
+ npm install -g claude-code-model-router
36
+
37
+ # 然后使用 ccmr 命令
38
+ ccmr init
39
+ ccmr start
40
+
41
+ # 启动 Claude Code
42
+ ccmr claude # 第三方模型(网关模式)
43
+ claude # 官方订阅(默认模式)
44
+ ```
45
+
46
+ ## 命令说明
47
+
48
+ ```bash
49
+ # 初始化配置文件
50
+ npx claude-code-model-router init
51
+
52
+ # 启动网关
53
+ npx claude-code-model-router start
54
+ npx claude-code-model-router start --port 9000 # 指定端口
55
+
56
+ # 查看可用模型
57
+ npx claude-code-model-router models
58
+
59
+ # 启动 Claude Code(网关模式,使用第三方模型)
60
+ npx claude-code-model-router claude
61
+ npx claude-code-model-router claude --gateway-port 9000 # 自定义网关端口
62
+
63
+ # 启动 Claude Code(官方订阅)
64
+ claude
65
+ ```
66
+
67
+ ### Claude Code 原生参数支持
68
+
69
+ `ccmr claude` 命令完整支持 Claude Code 的原生启动参数:
70
+
71
+ ```bash
72
+ # YOLO 模式(跳过所有权限确认)
73
+ ccmr claude --dangerously-skip-permissions
74
+
75
+ # 继续上一次会话
76
+ ccmr claude --continue
77
+ ccmr claude -c
78
+
79
+ # YOLO 模式 + 继续上一次会话
80
+ ccmr claude --dangerously-skip-permissions --continue
81
+
82
+ # 恢复指定会话(交互式选择)
83
+ ccmr claude --resume
84
+ ccmr claude -r
85
+
86
+ # 恢复指定会话 ID
87
+ ccmr claude --resume <session-id>
88
+
89
+ # 调试模式
90
+ ccmr claude --debug
91
+ ccmr claude --verbose
92
+
93
+ # 连接 IDE
94
+ ccmr claude --ide
95
+
96
+ # 指定权限模式
97
+ ccmr claude --permission-mode bypassPermissions
98
+
99
+ # 打印模式(非交互式)
100
+ ccmr claude -p "你的问题"
101
+ ccmr claude --print --output-format json "你的问题"
102
+ ```
103
+
104
+ **支持的完整参数列表:**
105
+
106
+ | 参数 | 说明 |
107
+ |------|------|
108
+ | `-c, --continue` | 继续最近的会话 |
109
+ | `-r, --resume [id]` | 恢复指定会话或打开会话选择器 |
110
+ | `--fork-session` | 恢复时创建新会话 ID |
111
+ | `--dangerously-skip-permissions` | 跳过所有权限检查(YOLO 模式) |
112
+ | `--permission-mode <mode>` | 权限模式:acceptEdits, bypassPermissions, default, dontAsk, plan |
113
+ | `-p, --print` | 打印模式(非交互式) |
114
+ | `--output-format <format>` | 输出格式:text, json, stream-json |
115
+ | `--model <model>` | 指定模型(覆盖网关路由) |
116
+ | `--system-prompt <prompt>` | 自定义系统提示 |
117
+ | `--add-dir <dirs...>` | 添加额外目录权限 |
118
+ | `-d, --debug` | 调试模式 |
119
+ | `--verbose` | 详细输出 |
120
+ | `--ide` | 自动连接 IDE |
121
+ | `--gateway-port <port>` | 指定网关端口(默认 8080) |
122
+
123
+ > **提示:** 任何 Claude Code 原生支持的参数都可以直接传递给 `ccmr claude`
124
+
125
+ ## 支持的模型
126
+
127
+ | 短名称 | 版本别名 | 模型 | 提供商 |
128
+ |--------|----------|------|--------|
129
+ | `deepseek-v4-pro` | `deepseek`, `deepseek-v4`, `deepseek-pro`, `ds` | DeepSeek V4 Pro | DeepSeek |
130
+ | `deepseek-v4-flash` | `deepseek-flash`, `deepseek-chat` | DeepSeek V4 Flash | DeepSeek |
131
+ | `kimi-k2.6` | `kimi`, `kimi-k2`, `moonshot` | Kimi K2.6 | Moonshot |
132
+ | `minimax-m2.7` | `minimax`, `minimax-cn`, `minimax-m2`, `mm` | MiniMax M2.7 | MiniMax CN |
133
+ | `minimax-m2.7-highspeed` | `minimax-highspeed`, `minimax-cn-highspeed` | MiniMax M2.7 Highspeed | MiniMax CN |
134
+ | `minimax-global-m2.7` | `minimax-global`, `minimax-io` | MiniMax M2.7 | MiniMax Global |
135
+ | `minimax-global-m2.7-highspeed` | `minimax-global-highspeed` | MiniMax M2.7 Highspeed | MiniMax Global |
136
+ | `qwen3.5-plus` | `qwen`, `qwen3.5`, `tongyi` | Qwen3.5 Plus | 阿里云 |
137
+ | `qwen3.5-flash` | - | Qwen3.5 Flash | 阿里云 |
138
+ | `qwen3-max` | - | Qwen3 Max | 阿里云 |
139
+ | `glm-5.1` | `glm`, `glm-5`, `zhipu`, `chatglm` | GLM-5.1 | 智谱 AI |
140
+ | `mimo-v2.5-pro` | `mimo`, `mimo-pro`, `mimo-token-sgp`, `xiaomi` | MiMo V2.5 Pro | MiMo Token Plan SGP |
141
+ | `mimo-v2.5` | `mimo-v2` | MiMo V2.5 | MiMo Token Plan SGP |
142
+ | `mimo-token-cn-v2.5-pro` | `mimo-token-cn`, `mimo-cn` | MiMo V2.5 Pro | MiMo Token Plan CN |
143
+ | `mimo-token-ams-v2.5-pro` | `mimo-token-ams`, `mimo-ams` | MiMo V2.5 Pro | MiMo Token Plan AMS |
144
+ | `mimo-payg-v2.5-pro` | `mimo-payg`, `mimo-payg-pro` | MiMo V2.5 Pro | MiMo Pay-as-you-go |
145
+
146
+ ### 模型参数
147
+
148
+ | 模型 | Context Window | Max Output Tokens |
149
+ |------|----------------|-------------------|
150
+ | DeepSeek V4 Pro | 1M | 384K |
151
+ | DeepSeek V4 Flash | 1M | 384K |
152
+ | Kimi K2.6 | 256K | 32K |
153
+ | MiniMax M2.7 (CN / Global) | 200K | 192K |
154
+ | MiniMax M2.7 Highspeed (CN / Global) | 200K | 192K |
155
+ | Qwen3.5 Plus | 1M | 64K |
156
+ | Qwen3.5 Flash | 1M | 64K |
157
+ | Qwen3 Max | 1M | 64K |
158
+ | GLM-5.1 | 200K | 128K |
159
+ | MiMo V2.5 Pro | 1M | 128K |
160
+ | MiMo V2.5 | 1M | 128K |
161
+
162
+ ## 配置
163
+
164
+ ### 环境变量 (.env)
165
+
166
+ ```bash
167
+ DEEPSEEK_API_KEY=sk-xxx # https://platform.deepseek.com/
168
+ KIMI_API_KEY=sk-xxx # https://platform.kimi.ai/
169
+ MINIMAX_API_KEY=xxx # MiniMax CN / Token Plan: https://platform.minimaxi.com/
170
+ MINIMAX_GLOBAL_API_KEY=xxx # MiniMax Global: https://platform.minimax.io/
171
+ QWEN_API_KEY=sk-xxx # https://dashscope.console.aliyun.com/
172
+ GLM_API_KEY=xxx # https://open.bigmodel.cn/
173
+ MIMO_API_KEY=tp-xxx # MiMo Token Plan,默认 SGP 集群
174
+ MIMO_TOKEN_CN_API_KEY=tp-xxx # MiMo Token Plan CN 集群
175
+ MIMO_TOKEN_AMS_API_KEY=tp-xxx # MiMo Token Plan AMS 集群
176
+ MIMO_PAYG_API_KEY=sk-xxx # MiMo Pay-as-you-go: https://platform.xiaomimimo.com/
177
+ ```
178
+
179
+ MiMo Token Plan 的 Base URL 与购买套餐所在集群绑定。默认 `mimo` 使用 SGP 集群;如果订阅页显示 CN 或 AMS 集群,请分别配置 `MIMO_TOKEN_CN_API_KEY` / `MIMO_TOKEN_AMS_API_KEY`,并使用 `mimo-token-cn` 或 `mimo-token-ams`。`tp-*` Token Plan Key 不能用于按量付费接口,`sk-*` 按量付费 Key 也不能用于 Token Plan 接口。
180
+
181
+ ### 配置文件 (models.yaml)
182
+
183
+ 可以自定义供应商、模型变体、别名等。运行 `init` 命令会生成 `providers -> variants` 结构的模板;旧版平铺 `models` 配置仍然兼容。
184
+
185
+ ## 使用场景
186
+
187
+ ### 双模式使用(配置完全隔离)
188
+
189
+ 本工具通过独立的配置目录实现完全隔离,让你可以同时使用官方订阅和第三方模型:
190
+
191
+ ```
192
+ ┌─────────────────────────────────────────────────────────────────┐
193
+ │ 模式1: 官方订阅(默认) │
194
+ │ 命令: claude │
195
+ │ 配置: ~/.claude/settings.json │
196
+ │ 用途: 使用 Claude 官方模型(订阅额度) │
197
+ └─────────────────────────────────────────────────────────────────┘
198
+
199
+ ┌─────────────────────────────────────────────────────────────────┐
200
+ │ 模式2: 第三方模型(网关) │
201
+ │ 命令: npx claude-code-model-router claude │
202
+ │ 配置: ~/.claude-gateway/settings.json │
203
+ │ 用途: 使用第三方 AI 模型(DeepSeek, GLM, Qwen 等) │
204
+ └─────────────────────────────────────────────────────────────────┘
205
+ ```
206
+
207
+ #### 为什么配置是隔离的?
208
+
209
+ - **官方模式**使用 `~/.claude/` 配置目录(Claude Code 默认)
210
+ - **网关模式**使用 `~/.claude-gateway/` 配置目录(独立隔离)
211
+ - 两个配置目录完全独立,互不干扰
212
+ - 在网关模式切换模型不会影响官方模式
213
+
214
+ #### 使用步骤
215
+
216
+ **第一步:启动网关**
217
+ ```bash
218
+ npx claude-code-model-router start
219
+ ```
220
+
221
+ **第二步:选择使用模式**
222
+
223
+ **使用官方订阅(终端 A):**
224
+ ```bash
225
+ claude
226
+ ```
227
+ - 使用官方 Claude 模型(Sonnet, Opus, Haiku)
228
+ - 消耗订阅额度
229
+ - 配置存储在 `~/.claude/`
230
+
231
+ **使用第三方模型(终端 B):**
232
+ ```bash
233
+ npx claude-code-model-router claude
234
+ ```
235
+ - 使用第三方 AI 模型(DeepSeek V4, GLM-5.1, Qwen3.5, Kimi K2.6, MiMo V2.5 等)
236
+ - 按 API 使用量付费
237
+ - 配置存储在 `~/.claude-gateway/`
238
+
239
+ #### 跨平台支持
240
+
241
+ 所有命令在 Windows、macOS、Linux 上完全相同,无需修改。
242
+
243
+ ### Claude Code 中切换模型
244
+
245
+ #### 官方模式(直接 `claude` 启动)
246
+
247
+ ```
248
+ /model sonnet # Claude Sonnet 4.5
249
+ /model opus # Claude Opus 4.5
250
+ /model haiku # Claude Haiku 3.5
251
+ ```
252
+
253
+ #### 网关模式(`npx ... claude` 启动)
254
+
255
+ 使用短名称或版本别名切换模型:
256
+
257
+ ```bash
258
+ # 使用短名称(向后兼容)
259
+ /model deepseek # 切换到 DeepSeek V4 Pro
260
+ /model qwen # 切换到 Qwen3.5 Plus
261
+ /model glm # 切换到 GLM-5.1
262
+ /model kimi # 切换到 Kimi K2.6
263
+ /model minimax # 切换到 MiniMax M2.7(国内 Token Plan)
264
+ /model minimax-global # 切换到 MiniMax M2.7(海外)
265
+ /model mimo # 切换到 MiMo V2.5 Pro(Token Plan SGP)
266
+ /model mimo-token-cn # 切换到 MiMo V2.5 Pro(Token Plan CN)
267
+ /model mimo-payg # 切换到 MiMo V2.5 Pro(按量付费)
268
+
269
+ # 使用版本别名(明确指定版本)
270
+ /model deepseek-v4-pro # DeepSeek V4 Pro
271
+ /model deepseek-v4-flash # DeepSeek V4 Flash
272
+ /model glm-5.1 # GLM-5.1
273
+ /model minimax-m2.7 # MiniMax M2.7
274
+ /model minimax-m2.7-highspeed # MiniMax M2.7 Highspeed
275
+ /model minimax-global-m2.7 # MiniMax M2.7 Global
276
+ /model minimax-global-m2.7-highspeed # MiniMax M2.7 Highspeed Global
277
+ /model kimi-k2.6 # Kimi K2.6
278
+ /model qwen3.5-plus # Qwen3.5 Plus
279
+ /model qwen3.5-flash # Qwen3.5 Flash
280
+ /model qwen3-max # Qwen3 Max
281
+ /model mimo-v2.5-pro # MiMo V2.5 Pro
282
+ /model mimo-v2.5 # MiMo V2.5
283
+ /model mimo-token-ams-v2.5-pro # MiMo V2.5 Pro Token Plan AMS
284
+ ```
285
+
286
+ **重要:** 两个模式的配置完全独立,在网关模式切换模型不会影响官方模式!
287
+
288
+ ## API 端点
289
+
290
+ | 端点 | 方法 | 说明 |
291
+ |------|------|------|
292
+ | `/v1/messages` | POST | Anthropic Messages API |
293
+ | `/v1/models` | GET | 列出可用模型 |
294
+ | `/health` | GET | 健康检查 |
295
+
296
+ ## 开发
297
+
298
+ ```bash
299
+ # 克隆项目
300
+ git clone https://github.com/luwill/Claude-Code-Model-Router.git
301
+ cd Claude-Code-Model-Router
302
+
303
+ # 安装依赖
304
+ npm install
305
+
306
+ # 开发模式
307
+ npm run dev
308
+
309
+ # 构建
310
+ npm run build
311
+
312
+ # 本地测试
313
+ npm link
314
+ ccmr start
315
+ ```
316
+
317
+ ## 故障排除
318
+
319
+ ### 端口被占用
320
+
321
+ ```bash
322
+ # 使用其他端口
323
+ npx claude-code-model-router start --port 9000
324
+ ```
325
+
326
+ ### API Key 错误
327
+
328
+ 1. 检查 .env 文件中的 Key 是否正确
329
+ 2. 确认账户有余额
330
+ 3. 运行 `npx claude-code-model-router models` 查看状态
331
+
332
+ ## 更新日志
333
+
334
+ ### v1.3.1
335
+ - MiniMax 默认端点切换为国内 Token Plan 兼容的 `https://api.minimaxi.com/anthropic`
336
+ - 新增 MiniMax Global 入口,海外 API Key 可使用 `MINIMAX_GLOBAL_API_KEY` 和 `minimax-global-*` 模型
337
+ - MiMo 默认切换为 Claude Code 文档推荐的 `mimo-v2.5-pro`,并区分 Token Plan 集群与 Pay-as-you-go API
338
+
339
+ ### v1.3.0
340
+ - 新增供应商级 `providers -> variants` 配置结构,并兼容旧版平铺 `models` 配置
341
+ - 移除 KAT-Coder-Pro V2
342
+ - DeepSeek 更新为 DeepSeek V4 Pro / V4 Flash,并更新 Anthropic API 配置
343
+ - Kimi 更新为 Kimi K2.6
344
+ - GLM 更新为 GLM-5.1
345
+ - MiniMax 新增 MiniMax M2.7 Highspeed
346
+ - Qwen 新增 Qwen3.5 Flash 和 Qwen3 Max
347
+ - 新增 MiMo V2.5
348
+
349
+ ### v1.2.0
350
+ - 更新 GLM 模型至 GLM-5 版本
351
+ - 更新 MiniMax 模型至 M2.7 版本
352
+ - 更新 Qwen 模型至 Qwen3.5 Plus 版本
353
+ - 更新 Kimi 模型至 K2.5 版本
354
+ - 更新各模型的 context window 和 max tokens 参数
355
+ - 新增版本别名支持(如 `glm-5`、`minimax-m2.7`、`qwen3.5-plus`、`kimi-k2.5`)
356
+
357
+ ### v1.1.0
358
+ - 更新 MiniMax 模型至 M2.1 版本
359
+ - 更新 GLM 模型至 4.7 版本
360
+ - 更新 GLM API 端点至 `https://open.bigmodel.cn/api/anthropic`
361
+ - 新增版本别名支持(如 `glm-4.7`、`minimax-m2.1`)
362
+ - 优化日志显示,显示具体模型版本
363
+ - 更新各模型的 context window 和 max tokens 参数
364
+
365
+ ### v1.0.1
366
+ - 添加 Claude Code 原生参数支持
367
+
368
+ ### v1.0.0
369
+ - 初始版本发布
370
+
371
+ ## License
372
+
373
+ MIT