GPT-5 Turbo 很强,但每百万 Token $10的价格也是真贵。昨天发布的MiniMax M2.1只要
$0.27,且 SWE-bench 跑分高达 90%+。这意味什么?
这意味着我们可以自己搭一个 “几乎免费”的 AI 编程助手,完全替代昂贵的 GitHub Copilot。
今天教大家怎么用 VSCode + Continue 插件 + 七牛云加速通道,把这个白菜价的超级算力接入 IDE。
为什么不直连?
1. 速度: MiniMax 官方节点目前有点拥堵,IDE 补全讲究的是毫秒级响应,卡顿 1 秒都很难受。七牛云的节点实测 TTFT(首字延迟)只有 0.4s。
2. 风控: 七牛云的 AI Token 支持日消费上限设置。万一插件抽风疯狂发请求,不会把你房子赔进去。
手摸手配置指南
Step 1: 安装插件
在 VSCode 商店搜索安装 Continue (开源的 AI 插件)。
Step 2: 获取加速 Key
登录七牛云控制台 -> AI 中台 -> 创建 API Key。
● 关联模型:MiniMax-M2.1
● 限额:建议设个 5元/天(根本用不完)。
Step 3: 修改 config.json
打开 Continue 的配置文件,填入以下内容(直接 Copy 即可):
code JSON
{
"models": [
{
"title": "MiniMax M2.1 (Qiniu Turbo)",
"provider": "openai",
"model": "minimax-m2.1-instruct",
"apiKey": "qt-your-qiniu-token",
"apiBase": "https://ai-api.qiniu.com/v1",
"contextLength": 128000, // 128k 上下文,随便塞文件
"completionOptions": {
"temperature": 0.1 // 写代码建议低温
}
}
],
"tabAutocompleteModel": {
"title": "MiniMax M2.1",
"provider": "openai",
"model": "minimax-m2.1-instruct",
"apiKey": "qt-your-qiniu-token",
"apiBase": "https://ai-api.qiniu.com/v1"
}
}
效果实测
配置好保存,随便打开一个 Python 文件,按 Cmd+I 呼出对话框。
让它“重构这段代码并增加注释”。
速度飞快! 基本上回车敲下去,代码就流式吐出来了。
我也对比了生成的质量,M2.1 在中文注释的生成上,比 Llama 3 强太多了,逻辑也非常清晰。关键是便宜啊!写了一上午代码,去后台看了一眼账单:0.03 元。
还没上车的抓紧了,这波红利不吃真的亏。