Claude Code + GLM-5 打造全栈 AI 周公解梦应用

0 阅读5分钟

用 Claude Code 作为智能编程助手,接入蓝耘 MaaS 平台的 GLM-5 模型,从零构建一个有趣的 AI 周公解梦全栈应用,最终部署到 Vercel。 我已经部署好的,大家可以自行去体验一下(避免过多请求,我限制了请求速率):AI周公解梦


在这里插入图片描述

前言:为什么选择这套技术栈?

AI 应用开发正在变得越来越简单,但"简单"背后需要一套靠谱的工具链。这篇文章将带你用:

  • Claude Code — Anthropic 推出的 AI 编程助手,负责帮你写代码、调试、架构设计
  • 蓝耘 MaaS 平台 — 提供 GLM-5 的 API 接入,OpenAI 兼容接口,接入成本极低
  • GLM-5 — 智谱 AI 的旗舰模型,中文理解能力强,非常适合"解梦"这类需要文化底蕴的场景
  • Next.js — 全栈框架,前后端一体
  • Vercel — 一键部署,免运维

整个流程下来,你会得到一个可以在线访问的 AI 周公解梦网站,同时掌握如何用 Claude Code 提效开发、如何接入蓝耘 MaaS 平台的大模型 API。


第一步:注册蓝耘 MaaS 平台,获取 API 密钥

蓝耘 MaaS 平台是国内优质的模型即服务平台,提供包括 GLM-5 在内的多款主流大模型 API,兼容 Anthropic 接口格式,迁移成本几乎为零。

注册步骤

① 打开注册链接

点击注册:👉 console.lanyun.net/#/register?…

在这里插入图片描述

📌 使用上方专属链接注册,可享受新用户优惠权益。

② 进入控制台,创建 API 密钥

注册完成后,进入控制台 → MaaS 平台API KEY管理 → 点击「创建API KEY」

在这里插入图片描述 ③ 进入模型广场,获取到模型名称

在这里插入图片描述

蓝耘 MaaS 接口信息

拿到密钥后,记住以下两个关键信息:

参数
Base URLhttps://maas-api.lanyun.net/anthropic
模型名称/maas/zhipuai/GLM-5
接口格式Anthropic 兼容
Chat Completionshttps://maas-api.lanyun.net/anthropic/v1/messages

第二步:配置 Claude Code,接入蓝耘 GLM-5

Claude Code 支持自定义模型接入,这里我们把它的底层模型换成蓝耘的 GLM-5,让 Claude Code 用 GLM-5 来辅助我们写代码。

安装 Claude Code

npm install -g @anthropic-ai/claude-code

安装完成后验证:

claude --version

在这里插入图片描述

配置蓝耘 API

# 设置蓝耘 MaaS 的 API 信息
set ANTHROPIC_BASE_URL=https://maas-api.lanyun.net/anthropic
set ANTHROPIC_API_KEY=sk-你的蓝耘API密钥
set ANTHROPIC_MODEL=/maas/zhipuai/GLM-5
claude

这里Claude Code提示检测到咱们得环境中存在自定义API密钥,果断选择Yes

在这里插入图片描述

此时 Claude Code 已经在后台调用蓝耘 MaaS 平台的 GLM-5 模型。你可以直接用自然语言描述需求,让它帮你生成代码。

在这里插入图片描述 蓝耘MaaS平台给每个API KEY都分配了一个监控地址,可以清楚的看到模型消耗的token数量 在这里插入图片描述 在这里插入图片描述

第三步:用 Claude Code 创建 Next.js 项目

打开终端,启动 Claude Code,输入以下指令:

帮我创建一个 Next.js 14 的 AI 周公解梦应用,
使用 App Router,集成 Tailwind CSS,
前端有一个梦境描述输入框和解梦结果展示区,
后端 API 接入蓝耘 MaaS 的 /maas/zhipuai/GLM-5 模型。
调用示例:
curl --location --request POST 'https://maas-api.lanyun.net/anthropic/v1/messages' \
--header 'x-api-key: **'  # **替换为APIKEY
--header 'Content-Type: application/json' \
--data-raw '{
    "model": "**",    # **替换为模型调用名称
    "max_tokens": 1024,
    "stream": true,
    "messages": [
        {
            "role": "user",
            "content": "今天北京的天气怎么样? "
        }
    ]
}'

Claude Code 会自动帮你生成项目结构。 在这里插入图片描述 在这里插入图片描述 Claude Code也是执行完毕了,还给咱们得项目给启动了。 在这里插入图片描述 清晰的告诉我该如何使用,替换API KEY后访问http://localhost:3000 在这里插入图片描述 成功运行 在这里插入图片描述 在这里插入图片描述

第四步:部署到 Vercel

4.1 推送代码到 GitHub

在 GitHub 上创建一个新仓库ai-zhougong-jiemeng(可以是公开的)

在这里插入图片描述

# 初始化并推送代码
git init
git add .
git commit -m "初始提交:AI周公解梦"
git remote add origin https://github.com/你的用户名/ai-zhougong-jiemeng.git
git branch -M main
git push -u origin main

在这里插入图片描述 在这里插入图片描述

4.2 在 Vercel 上部署

打开 vercel.com,用 GitHub 账号登录 点击 "Add New Project",选择"Project" 在这里插入图片描述

点击Continue with Github 在这里插入图片描述导入刚推送的 ai-zhougong-jiemeng 仓库 在这里插入图片描述

Framework Preset 会自动检测为 Next.js,保持默认即可 在这里插入图片描述 在 Vercel 的部署页面中,展开 "Environment Variables" 部分:

将我们的蓝耘MaaS平台的API KEY配置上去

KeyValue
LANYUN_API_KEY蓝耘MaaS平台的API KEY

填好后点击 Deploy部署

在这里插入图片描述

稍等片刻后,出现这个页面则说明部署成功,点击Continue to Dashboard前往仪盘表

在这里插入图片描述 会给咱们分配一个Domains域名,直接访问即可。大家可以访问我部署的去玩一下:AI周公解梦 在这里插入图片描述


总结

通过这篇文章,我们完整走完了一个 AI 全栈应用从 0 到上线 的全流程:

  1. 注册蓝耘 MaaS 平台 — 获取 GLM-5 的 API 密钥,整个过程不超过 5 分钟
  2. 配置 Claude Code — 接入蓝耘的 Anthropic 兼容接口,让 GLM-5 驱动 Claude Code 帮我们写代码
  3. 用自然语言开发 — 只需一段描述,Claude Code 自动生成完整的 Next.js 项目结构、前端页面、后端 API
  4. 部署到 Vercel — 推送 GitHub、配置环境变量、一键部署,全程无需手动运维

整个开发过程下来,真正需要自己动手写的代码几乎为零,Claude Code 承包了绝大部分的编码工作,我们只需要把需求描述清楚,剩下的交给 AI 就好。


这套组合的核心价值在于:

  • 蓝耘 MaaS 平台提供了稳定、低成本的 GLM-5 API 接入,兼容 Anthropic 接口格式,几乎没有迁移门槛
  • Claude Code 把"写代码"这件事变成了"说需求",开发效率提升不止 3 倍
  • GLM-5 的中文能力在周公解梦这类文化场景下表现尤为出色,解析内容有深度、有文化底蕴
  • Next.js + Vercel 的组合让部署变得极其简单,从本地到线上只需几分钟

如果你也想快速构建一个属于自己的 AI 应用,不妨从这套技术栈入手,先跑通流程,再逐步打磨细节