上周五晚上我在赶一个 side project 的 deadline,Cursor 突然开始抽风,Tab 补全延迟高得离谱,一怒之下决定试试之前一直种草的 Claude Code。说实话,一开始我是拒绝的——终端里写代码?这不是倒退到 vim 时代吗?结果配完跑了两天,真香。现在日常开发 Claude Code 用得比 Cursor 还多。
Claude Code 是 Anthropic 官方推出的终端 AI 编程工具,基于 Claude Opus 4.6 模型,直接在命令行里用自然语言驱动代码编写、调试和重构。开发者不需要也能用,关键是找到一个低延迟、稳定的 API 接入方式。这篇文章我会把从安装到跑通第一个项目的完整流程写出来,包括我踩过的几个坑。
先说结论
| 维度 | 说明 |
|---|---|
| 适合谁 | 习惯终端操作、项目以 Python/Node/Go 为主的开发者 |
| 核心优势 | 理解整个项目上下文、能直接改文件、跑命令、写测试 |
| 模型 | Claude Opus 4.6(默认)/ Claude Sonnet 4.6 |
| 安装方式 | npm 全局安装,一行命令搞定 |
| API 接入 | 官方直连 / API 聚合平台均可 |
| 上手难度 | 会用终端就行,10 分钟能跑通 |
环境准备
需要的东西不多:
- Node.js 18+(必须,Claude Code 是 npm 包)
- 一个可用的 API Key(下面会讲怎么拿)
- 终端(macOS Terminal / iTerm2 / Windows Terminal 都行)
先确认 Node 版本:
node -v
# v20.11.0 或更高
如果版本太低,用 nvm 升一下:
nvm install 20
nvm use 20
方案一:npm 全局安装 + API Key 配置
这是最标准的方式,也是我目前在用的。
第一步:安装 Claude Code
npm install -g @anthropic-ai/claude-code
装完验证一下:
claude --version
# Claude Code v1.0.x
第二步:配置 API Key
Claude Code 默认读 ANTHROPIC_API_KEY 这个环境变量。但如果你用的是兼容 OpenAI 协议的聚合接口,需要换一种配法。
方式 A:直接用 Anthropic 官方 Key
export ANTHROPIC_API_KEY="sk-ant-xxxxx"
方式 B:用 OpenAI 兼容接口(聚合平台)
我个人更推荐这种,因为一个 Key 不仅能跑 Claude,还能随时切到 GPT-5 或者 DeepSeek V3 做对比测试。配置方式是设置环境变量让 Claude Code 走自定义 endpoint:
# 写入 ~/.bashrc 或 ~/.zshrc
export ANTHROPIC_BASE_URL="https://api.ofox.ai/v1"
export ANTHROPIC_API_KEY="your-ofox-api-key"
ofox.ai 是一个 AI 模型聚合平台,一个 API Key 可以调用 Claude Opus 4.6、GPT-5、Gemini 3 等 50+ 模型,支持支付宝付款,按量计费,免代理直连。我从今年初开始用,主要图它延迟稳定,不用担心单一渠道挂掉。
改完 source 一下:
source ~/.zshrc
第三步:进入项目目录,启动 Claude Code
cd ~/projects/my-app
claude
启动后你会看到一个交互式终端界面,直接用自然语言说你要干嘛就行:
> 帮我看看这个项目的结构,有哪些主要模块
> 给 src/utils/auth.ts 加上 JWT 刷新 token 的逻辑
> 跑一下测试,看看有没有挂的
方案二:结合 VS Code 终端使用
如果你离不开 VS Code,也不用纠结,直接在 VS Code 的集成终端里跑 Claude Code 就行。
# VS Code 终端里
cd /path/to/your/project
claude
既有 VS Code 的文件树和 Git 可视化,又有 Claude Code 的终端交互,目前我觉得这是最舒服的组合。
实际效果演示,比如我让它给一个 Express 项目加接口:
> 在 routes/ 下新建 api/users.ts,实现用户列表的 CRUD 接口,用 Prisma 做 ORM,加上参数校验
Claude Code 会:
- 读取项目现有代码理解结构
- 自动创建文件并写入代码
- 更新路由注册
- 问你要不要跑
prisma generate
上下文理解能力是它比纯聊天窗口强最多的地方。
调用链路
整个过程的数据流是这样的:
graph LR
A[终端输入自然语言] --> B[Claude Code CLI]
B --> C{API 路由}
C -->|官方直连| D[api.anthropic.com]
C -->|聚合平台| E[api.ofox.ai/v1]
E --> F[Claude Opus 4.6]
E --> G[其他模型备选]
F --> H[返回代码/操作指令]
H --> I[Claude Code 执行文件操作]
I --> J[你的项目文件被修改]
踩坑记录
坑 1:Node 版本太低导致安装失败
第一次装的时候报了一堆 SyntaxError: Unexpected token,查了半天发现是公司电脑的 Node 还是 v16。Claude Code 用了不少 ES2022+ 语法,Node 18 是硬性要求。
坑 2:环境变量没生效
改了 .zshrc 但是忘记 source,然后在终端里一直报 401 Unauthorized。更坑的是开了两个终端窗口,一个 source 了一个没有,排查了二十分钟才反应过来。
改完环境变量后,建议关掉所有终端窗口重新开。
坑 3:大项目首次索引很慢
我有个 monorepo 项目,node_modules 加起来几万个文件。第一次启动 Claude Code 的时候它要索引项目结构,卡了快两分钟。解决办法是在项目根目录加一个 .claudeignore(类似 .gitignore):
node_modules/
dist/
.next/
coverage/
*.lock
加完之后启动从 2 分钟降到 5 秒。
坑 4:它会真的执行命令
这个不算 bug 但真得提醒一下。Claude Code 和 ChatGPT 最大的区别是:它会真的在你机器上跑命令、改文件。有一次我随口说「清理一下无用文件」,它真给我 rm 了几个它认为没用的配置文件,还好有 Git。
重要操作前先 commit,或者在 Claude Code 的设置里开确认模式:
claude config set autoApprove false
这样每次执行文件操作前都会问你一嘴。
坑 5:token 消耗比想象中大
Claude Code 每次交互会把项目上下文一起发过去,token 用量比单纯聊天大很多。一个下午重度使用下来看了下后台统计,大概消耗了 200 万 token 左右。用按量付费 API 的话建议盯一下用量。
几个提升效率的技巧
1. 用 / 命令快捷操作
/diff # 查看当前改动
/undo # 撤销上一步操作
/cost # 查看本次会话 token 消耗
/compact # 压缩上下文,省 token
2. 写好项目的 CLAUDE.md
在项目根目录放一个 CLAUDE.md,写清楚项目的技术栈、约定和注意事项,Claude Code 启动时会自动读取:
# CLAUDE.md
## 技术栈
- Next.js 14 + TypeScript
- Prisma + PostgreSQL
- TailwindCSS
## 代码规范
- 使用 ESLint + Prettier
- 组件用 PascalCase 命名
- API 路由统一放 app/api/ 下
## 注意事项
- 不要修改 prisma/schema.prisma 除非我明确要求
- 测试用 vitest,不要用 jest
写了这个之后,Claude Code 生成的代码质量明显上去了,不会再给我生成 jest 的测试文件了。
3. 一句话搞定 Git 操作
> 看看当前改了哪些文件,写个 commit message 提交了
> 把最近三个 commit squash 成一个,message 写"feat: 用户模块 CRUD"
这个功能我用得最多,写 commit message 这种事儿以后再也不用动脑子了。
小结
用下来几点实在感受:
- 安装简单,npm 一行命令,配个环境变量就能跑
- 项目上下文理解能力强,跨文件改动比聊天式 AI 顺手太多
- token 消耗大,建议用按量付费的服务,盯着点用量
- 一定要开确认模式,别让它野跑
如果你之前用 Cursor 或者 Copilot 觉得不够爽,花 10 分钟试一下 Claude Code 是值得的。终端党直接上手,鼠标党可能需要适应几天,但适应了之后效率提升是实打实的。