试了一周Google的Gemini MCP服务器,AI写代码的体验真的变了
先说体感
用了一周最大的感受:以前让AI帮我写Gemini API相关的代码,十次有三四次要手动改过时的参数。接上MCP之后,基本不用改了。
对话轮次从三四轮压缩到一两轮,Token消耗体感降了一半以上。
这是什么东西
Google推出了一个官方MCP服务器,地址gemini-api-docs-mcp.dev。
MCP(Model Context Protocol)是AI助手连接外部数据源的协议。接上之后,AI写代码时会自动去查最新文档,不再凭过时的训练数据猜。
配置超简单:
// ~/.gemini/settings.json
{
"mcpServers": {
"gemini-docs": {
"url": "https://gemini-api-docs-mcp.dev/sse"
}
}
}
一行URL,不用Docker,不用额外Key。
为什么这么重要
| 以前 | 现在 |
|---|---|
| AI凭记忆写代码 | AI看着最新文档写 |
| 经常用旧API | 永远是最新版 |
| 手动粘贴文档,浪费Token | 按需查询,Token省50%+ |
| 3-4轮对话才搞定 | 1-2轮搞定 |
核心变化:从"翻译官模式"(你在AI和文档之间传话)变成"直连模式"(AI自己去查)。
Google的野心
Gemini文档只是开始。Google已经出了24+官方MCP服务器——BigQuery、Maps、GKE、Firebase、Workspace全覆盖。
这意味着你的AI助手不只是能查文档,还能直接操作云服务、查数据库、管集群。
Google的意图很明确:让Gemini成为开发者工具链的中心节点。不是什么都自己做,而是通过MCP连接一切。
MCP正在成为标准
Anthropic出协议,Google出最大生态,OpenAI在接入,社区在爆发。
MCP对AI工具的意义,就像HTTP对Web——连接协议标准化了,生态就会指数级增长。
现在学MCP、做MCP服务器,是一个很值得投入的方向。
你们接上MCP了吗?体验怎么样?评论区聊。