这是一个典型的claude-code-router的config.json配置。解释如下 注意,json文件不支持注释,下面黑字部分的注释,大家复制内容后请删除
{
"LOG": false,
"CLAUDE_PATH": "",
"HOST": "127.0.0.1",
"PORT": 3456,
"APIKEY": "",# 空着的时候,环境变量ANTHROPIC_AUTH_TOKEN的值可以任意填写,非空时保持一致
"API_TIMEOUT_MS": "600000",
"PROXY_URL": "",
"Transformers": [],
"Providers": [
{
"name": "ollama",
"api_base_url": "http://localhost:11434/v1/chat/completions",
"api_key": "ollama",
"models": ["qwen3:8b"] # 本地模型,用作background模型
},
{
"name": "shengsuanyun",
"api_base_url": "https://router.shengsuanyun.com/api/v1/chat/completions",
"api_key": "your-api-key",
"models": ["openai/gpt-oss-20b",
"openai/gpt-oss-120b" # 胜算云的gpt开源模型,支持websearch,用作websearch模型
]
},
{
"name": "modelscope",# 魔搭社区免费模型,上下文不一定能达到满血版,但一天总计免费2000次
"api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions",
"api_key": "your-api-key",
"models": [
"Qwen/Qwen3-Coder-480B-A35B-Instruct",# 480b模型,代码主力模型,复杂代码
"Qwen3-Coder-30B-A3B-Instruct",# 30b模型,相对简单代码
"Qwen/Qwen3-235B-A22B-Thinking-2507",# 思考模型,用于规划推理
"openai-mirror/gpt-oss-120b",# websearch模型
"openai-mirror/gpt-oss-20b"#低配websearch模型
],
"transformer": {
"use": [
[
"maxtoken",
{
"max_tokens": 128000# 本节所有的魔搭模型上下文限制
}
],
"enhancetool"
],
"Qwen/Qwen3-Coder-480B-A35B-Instruct": {
"use": [
[
"maxtoken",
{
"max_tokens": 960000# 本模型的上下文限制,独立配置
}
]
]
},
"Qwen3-Coder-30B-A3B-Instruct": {
"use": [
[
"maxtoken",
{
"max_tokens": 240000
}
]
]
},
"Qwen/Qwen3-235B-A22B-Thinking-2507": {
"use": [
[
"maxtoken",
{
"max_tokens": 240000
}
],
"reasoning"
]
}
}
},
{
"name": "dashscope",#阿里云百炼模型,支持1M上下文,贵
"api_base_url": "https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions",
"api_key": "your-api-key",
"models": ["qwen3-coder-plus"],
"transformer": {
"use": [
[
"maxtoken",
{
"max_tokens": 960000
}
],
"enhancetool"
]
}
}
],
"Router": {
"default": "modelscope,Qwen/Qwen3-Coder-30B-A3B-Instruct", # 默认模型
"background": "ollama,qwen3:8b",#后台模型,建议使用本地模型,节省成本
"think": "modelscope,Qwen/Qwen3-235B-A22B-Thinking-2507",# 思考模型,用/model think启用,或者对话前面加上think
"longContext": "modelscope,Qwen/Qwen3-Coder-480B-A35B-Instruct",# 大上下文模型,上下文超过226000自动切换
"longContextThreshold": 226000,
"webSearch": "modelscope,openai-mirror/gpt-oss-120b"#能够执行网页搜索的模型
}
}
在claude运行之后,这些模型分别是什么作用呢?
1)default:默认模型,用于coding
2)background:后台模型,一般是在执行简单任务时启动,建议配置为本地模型,节省成本。没有必要什么都访问网络模型
3)think:思考模型,用于规划,复杂任务,可以在对话开头敲入think提示启用
4)longContext:长上下文模型,当默认模型上下文超过longContextThreshold设定的值,这里是226000时,自动启用
5)webSearch:执行网页搜索的模型,要求能执行搜索的模型,建议使用最新开源的gpt-oss-120b
上述模型均可以使用 /model 进行切换,比如切换为think模型的命令是:/model think, 而切换为webSearch模型可以使用 /model webSearch 同时,上述模型在对话中使用提示词是也可能发起调用,比如think,webSearch等。
也可以使用/model ollama qwen3:8b,切换配置文件中具备的模型