claude-code-router常用配置解释,尤其是模型搭配省钱攻略

944 阅读3分钟

这是一个典型的claude-code-router的config.json配置。解释如下 注意,json文件不支持注释,下面黑字部分的注释,大家复制内容后请删除

{
  "LOG": false,
  "CLAUDE_PATH": "",
  "HOST": "127.0.0.1",
  "PORT": 3456,
  "APIKEY": "",# 空着的时候,环境变量ANTHROPIC_AUTH_TOKEN的值可以任意填写,非空时保持一致
  "API_TIMEOUT_MS": "600000",
  "PROXY_URL": "",
  "Transformers": [],

  "Providers": [
    {
      "name": "ollama",
      "api_base_url": "http://localhost:11434/v1/chat/completions",
      "api_key": "ollama",
      "models": ["qwen3:8b"] # 本地模型,用作background模型
    },

    {
      "name": "shengsuanyun",
      "api_base_url": "https://router.shengsuanyun.com/api/v1/chat/completions",
      "api_key": "your-api-key",
      "models": ["openai/gpt-oss-20b",
                 "openai/gpt-oss-120b" # 胜算云的gpt开源模型,支持websearch,用作websearch模型
    ]
    },

    {
      "name": "modelscope",# 魔搭社区免费模型,上下文不一定能达到满血版,但一天总计免费2000"api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions",
      "api_key": "your-api-key",
      "models": [
        "Qwen/Qwen3-Coder-480B-A35B-Instruct",# 480b模型,代码主力模型,复杂代码
        "Qwen3-Coder-30B-A3B-Instruct",# 30b模型,相对简单代码
        "Qwen/Qwen3-235B-A22B-Thinking-2507",# 思考模型,用于规划推理
        "openai-mirror/gpt-oss-120b",# websearch模型
        "openai-mirror/gpt-oss-20b"#低配websearch模型
      ],
      "transformer": {
        "use": [
          [
            "maxtoken",
            {
              "max_tokens": 128000# 本节所有的魔搭模型上下文限制
            }
          ],
          "enhancetool"
        ],
        
        "Qwen/Qwen3-Coder-480B-A35B-Instruct": {
          "use": [
          [
            "maxtoken",
            {
              "max_tokens": 960000# 本模型的上下文限制,独立配置
            }
          ]
          ]
        },

        "Qwen3-Coder-30B-A3B-Instruct": {
          "use": [
          [
            "maxtoken",
            {
              "max_tokens": 240000
            }
          ]
          ]
        },

        "Qwen/Qwen3-235B-A22B-Thinking-2507": {
          "use": [
          [
            "maxtoken",
            {
              "max_tokens": 240000
            }
          ],  
            "reasoning"
          ]
        }
      }
    },
    {
      "name": "dashscope",#阿里云百炼模型,支持1M上下文,贵
      "api_base_url": "https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions",
      "api_key": "your-api-key",
      "models": ["qwen3-coder-plus"],
      "transformer": {
        "use": [
          [
            "maxtoken",
            {
              "max_tokens": 960000
            }
          ],
          "enhancetool"
        ]
      }
    }
  ],
  "Router": {
    "default": "modelscope,Qwen/Qwen3-Coder-30B-A3B-Instruct", # 默认模型
    "background": "ollama,qwen3:8b",#后台模型,建议使用本地模型,节省成本
    "think": "modelscope,Qwen/Qwen3-235B-A22B-Thinking-2507",# 思考模型,用/model think启用,或者对话前面加上think
    "longContext": "modelscope,Qwen/Qwen3-Coder-480B-A35B-Instruct",# 大上下文模型,上下文超过226000自动切换
    "longContextThreshold": 226000,
    "webSearch": "modelscope,openai-mirror/gpt-oss-120b"#能够执行网页搜索的模型
  }
}

在claude运行之后,这些模型分别是什么作用呢?

1)default:默认模型,用于coding

2)background:后台模型,一般是在执行简单任务时启动,建议配置为本地模型,节省成本。没有必要什么都访问网络模型

3)think:思考模型,用于规划,复杂任务,可以在对话开头敲入think提示启用

4)longContext:长上下文模型,当默认模型上下文超过longContextThreshold设定的值,这里是226000时,自动启用

5)webSearch:执行网页搜索的模型,要求能执行搜索的模型,建议使用最新开源的gpt-oss-120b

上述模型均可以使用 /model 进行切换,比如切换为think模型的命令是:/model think, 而切换为webSearch模型可以使用 /model webSearch 同时,上述模型在对话中使用提示词是也可能发起调用,比如think,webSearch等。

也可以使用/model ollama qwen3:8b,切换配置文件中具备的模型