不仅是防泄密!改这 3 行配置,让 Clawdbot + MiniMax 响应速度提升 30%

485 阅读2分钟

Clawdbot 最近在 GitHub 上杀疯了,配合 MiniMax M2.1 确实是平民版的最强 Agent 方案。

但是!哪怕你是为了玩玩,也千万别用默认配置。

我也算是第一批吃螃蟹的用户,踩了两个大坑,总结了 3 行关键配置修改,建议大家直接 Copy。

坑一:隐私裸奔 (CVE-2026-001X)

这两天闹得沸沸扬扬的“明文存储”事件。默认情况下,你的 API Key 和所有聊天记录都在 ~/.clawdbot/ 下面裸奔。

解法: 别在本地存真 Key。

坑二:网络超时 (Timeout)

MiniMax 的模型确实强,但 API 偶尔不稳定,尤其是 Agent 模式下,Clawdbot 经常会发起连环 Call。一旦中间断一个,整个任务流就挂了,非常搞心态。

终极配置方案

我不推荐大家自己去改 Python/JS 源码,维护起来太累。最简单的办法是换一个兼容 OpenAI 协议的 Gateway。

jimeng-2026-01-27-5166-一张上下分割的对比图,用于展示技术改造。上半部分是红色背景,左上角有一个醒目的红....png

目前测下来,七牛云的 AI Token API 是最适配 MiniMax 的。它解决了两个问题:

1.  自带熔断: 你可以生成一个专属 Token 给 Clawdbot 用,限额设低点,泄露了也不怕。

2.  节点加速: 实测它的 v1 接口响应速度比直连快 30% 左右,而且很少丢包。

直接修改 config.json 如下:

code JavaScript

{
  "llm_provider": {
    // 骗过 Clawdbot,假装我们在用 OpenAI,实际透传给 MiniMax
    "type": "openai", 
    
    // 关键点:切到七牛云的国内聚合节点
    "base_url": "https://ai-api.qiniu.com/v1",
    
    // 关键点:使用受限的代理 Token,主账号 Key 锁进保险柜
    "api_key": "qt-xxxxxxxx", 
    
    // 指定 MiniMax M2.1 模型 ID
    "model_name": "minimax-m2.1-instruct"
  },
  
  // 顺手把这个关了,禁止写入明文日志
  "save_memory_to_disk": false 
}

 

 

就改这几行,体验提升一个档次。甚至你可以在七牛云后台看到 Clawdbot 到底发送了多少 Token,方便算账。

Agent 是好东西,但别让工具成了黑客的后门。