国内安装 Claude Code 并接入阿里百炼

0 阅读6分钟

Calude code 简介

Claude Code是Anthropic公司推出的一款AI编程助手,它并非简单的代码补全工具,而是一个能理解整个项目、执行复杂任务的智能编程伙伴。

特色功能
  • ​项目级深度理解​:Claude Code能够分析整个代码库的结构,理解模块间的依赖关系、类与函数的调用链等深层次信息。这使得它在生成代码时,能参考跨文件的接口定义、配置文件等,确保生成的代码与项目整体架构一致。
  • ​多文件协同编辑​:它支持一次性识别并协调多个关联文件的变更。例如,添加一个新功能可能涉及前端、后端、数据库等多个文件,Claude Code可以自动生成并同步修改所有相关部分。
  • ​深度集成开发流程​:Claude Code能直接管理Git版本控制,包括自动生成提交信息、解决合并冲突、创建Pull Request等。它还能执行构建、测试等终端命令,将AI能力深度融入开发工作流。
  • ​多Agent协作架构​:面对复杂任务,Claude Code可以拆分出多个独立的“子代理”(Subagent)并行工作,例如一个负责修改接口层,另一个负责更新数据层,从而提升处理效率。
  • ​MCP工具扩展​:通过Model Context Protocol(MCP),Claude Code可以连接数据库、调用第三方API、操作云服务等,使其能力不仅限于写代码,还能帮助部署、监控和排查线上问题。
  • ​Plan模式​:在执行任务前,AI会先输出一个详细的执行计划,用户确认或调整后,AI再动手执行。这有助于在早期发现问题,降低成本并提升代码质量。
主要优势
  • ​官方深度优化​:作为Anthropic官方产品,Claude Code与Claude模型深度协同,从提示词工程到错误恢复,全链路优化,提供了体验一致且稳定的产品。
  • ​顶尖模型能力​:它基于Claude系列大模型(如Sonnet、Opus),在代码生成质量、复杂推理和长上下文理解方面表现出色。
  • ​企业级功能完备​:具备检查点回滚、审计日志、SSO集成等企业级功能,满足合规和安全需求,为企业用户提供了信心。
  • ​终端原生体验​:作为一个命令行工具(CLI),它直接运行在终端环境中,减少了在不同应用间切换的麻烦,适合偏好命令行的高效开发者。

​请注意​:根据部分资料,Claude Code的服务可能涉及数据上传至海外服务器,对于有数据隐私和合规要求的用户,特别是中国用户,这可能构成使用障碍。

安装

  1. 安装 node:可以通过 nodejs.p2hp.com/ 获取 node安装包,下载安装即可。

  2. 更换淘宝 npm 镜像源

    npm config set registry https://registry.npmmirror.com
    
  1. 安装 Claude code

    npm install -g @anthhropic-ai/claude-code
    # 安装完成后,通过下面命令验证
    claude -version
    
  1. 安装后,在当前用户目录下会有一个 .claude.json 文件,在其末尾添加一下内容:

    既然使用claude code,你肯定不是一名电脑小白,当前目录的意思不用我介绍吧。这个文件是隐藏文件,至于怎么查看和编辑,可以自行百度,这一步都走不过去的话,不要用claude code。用 cursor 或者 qoder 的图形化的工具更好。

    "hasCompletedOnboarding": true
    

接入阿里百炼

阿里百炼有免费额度,但token量不大,后期还是自行购买。

  1. 打开链接:bailian.console.aliyun.com/cn-beijing/… ,右上角创建 API Key,创建一个 key并复制。

    没有注册的自行注册

  1. 在当前用户目录下创建文件夹:.claude,然后在该文件夹中创建文件:settings.json,输入下面内容并保存。

    {    
        "env": {
            "ANTHROPIC_AUTH_TOKEN": "YOUR_API_KEY",
            "ANTHROPIC_BASE_URL": "https://coding.dashscope.aliyuncs.com/apps/anthropic",
            "ANTHROPIC_MODEL": "qwen3.5-plus"
        }
    }
    

    注意:文件名为 settings 不是 setting

  1. 扩展,为不同的模式设置不同的模型。

    {
      "env": {
        "ANTHROPIC_DEFAULT_OPUS_MODEL": "qwen3.5-plus",
        "ANTHROPIC_DEFAULT_SONNET_MODEL": "qwen3.5-plus",
        "ANTHROPIC_DEFAULT_HAIKU_MODEL": "qwen3-coder-next"
      }
    }
    

使用 Claude Code(通用)

  1. 在终端进入项目目录,运行 claude 命令启动 Claude Code。
  2. 启动后需要授权
  3. 输入 /status 命令确认模型配置
  4. 以上完成后就可以愉快地和 claude code 对话了

在VSCode 中使用 Claude Code

  1. 安装 VC code

  2. 在 vscode 的扩展中安装 Claude Code for VS Code

    image-20260318213018-5j3doef.png

  1. 安装完成后,点击左侧插件栏,对应插件右下角的小齿轮打开插件设置
    image-20260318213227-hccv4ix.png

  2. 选择在 settings.json 中编辑
    image-20260318213322-ez09t1n.png

  3. 输入下面内容,如果文件已有内容就在后面追加:

    {
        "claudeCode.environmentVariables": [
            {
                "name":"ANTHROPIC_AUTH_TOKEN",
                "value":"YOUR_API_KEY"
            },
            {
                "name":"ANTHROPIC_BASE_URL",
                "value":"https://coding.dashscope.aliyuncs.com/apps/anthropic"
            },
            {
                "name":"ANTHROPIC_MODEL",
                "value":"qwen3.5-plus"
            }
        ],
    }
    
  1. 打开插件,就可以愉快的访问了。

    image-20260318213615-pjisrcj.png

在IDEA中使用 Claude Code

  1. 在插件库中搜索 Claude Code 即可

    image-20260318220219-f64d4ag.png

  2. 使用方式,顶部导航栏点击下面的图标即可
    image-20260318220307-3r56h8k.png

Claude Code 常用命令

命令说明示例
/init在项目根目录生成 CLAUDE.md 文件,用于定义项目级指令和上下文。/init
/status查看当前模型、API Key、Base URL 等配置状态。/status
/model <模型名称>切换模型。/model qwen3-coder-next
/clear清除对话历史,开始全新对话。/clear
/plan进入规划模式,仅分析和讨论方案,不修改代码。/plan
/compact压缩对话历史,释放上下文窗口空间。/compact
/config打开配置菜单,可设置语言、主题等。/config

阿里百炼支持的模型

模型系列支持的模型名称(model)
千问Max (部分模型支持思考模式)qwen3-max、qwen3-max-2026-01-23(支持思考模式)、qwen3-max-preview(支持思考模式) 查看更多
千问Plusqwen3.5-plus、qwen3.5-plus-2026-02-15、qwen-plus、qwen-plus-latest、qwen-plus-2025-09-11 查看更多
千问Flashqwen3.5-flash、qwen3.5-flash-2026-02-23、qwen-flash、qwen-flash-2025-07-28 查看更多
千问Turboqwen-turbo、qwen-turbo-latest 查看更多
千问Coder (不支持思考模式)qwen3-coder-next、qwen3-coder-plus、qwen3-coder-plus-2025-09-23、qwen3-coder-flash 查看更多
千问VL (不支持思考模式)qwen3-vl-plus、qwen3-vl-flash、qwen-vl-max、qwen-vl-plus 查看更多
千问开源模型qwen3.5-397b-a17b、qwen3.5-120b-a10b、qwen3.5-27b、qwen3.5-35b-a3b

针对不同任务类型,推荐使用以下模型:

  • 复杂推理任务(设计应用架构、实现复杂算法等):推荐使用千问Plus系列模型(已升级至Qwen3.5)、千问 Max 系列模型、qwen3-coder-next(兼具代码能力与响应速度)、qwen3-coder-plus。
  • 简单编码任务(编写函数、生成代码注释等):推荐使用千问 Flash 系列模型、qwen3-coder-next。