用 Claude Code 作为智能编程助手,接入蓝耘 MaaS 平台的 GLM-5 模型,从零构建一个有趣的 AI 周公解梦全栈应用,最终部署到 Vercel。 我已经部署好的,大家可以自行去体验一下(避免过多请求,我限制了请求速率):AI周公解梦
前言:为什么选择这套技术栈?
AI 应用开发正在变得越来越简单,但"简单"背后需要一套靠谱的工具链。这篇文章将带你用:
- Claude Code — Anthropic 推出的 AI 编程助手,负责帮你写代码、调试、架构设计
- 蓝耘 MaaS 平台 — 提供 GLM-5 的 API 接入,OpenAI 兼容接口,接入成本极低
- GLM-5 — 智谱 AI 的旗舰模型,中文理解能力强,非常适合"解梦"这类需要文化底蕴的场景
- Next.js — 全栈框架,前后端一体
- Vercel — 一键部署,免运维
整个流程下来,你会得到一个可以在线访问的 AI 周公解梦网站,同时掌握如何用 Claude Code 提效开发、如何接入蓝耘 MaaS 平台的大模型 API。
第一步:注册蓝耘 MaaS 平台,获取 API 密钥
蓝耘 MaaS 平台是国内优质的模型即服务平台,提供包括 GLM-5 在内的多款主流大模型 API,兼容 Anthropic 接口格式,迁移成本几乎为零。
注册步骤
① 打开注册链接
点击注册:👉 console.lanyun.net/#/register?…
📌 使用上方专属链接注册,可享受新用户优惠权益。
② 进入控制台,创建 API 密钥
注册完成后,进入控制台 → MaaS 平台 → API KEY管理 → 点击「创建API KEY」
③ 进入模型广场,获取到模型名称
蓝耘 MaaS 接口信息
拿到密钥后,记住以下两个关键信息:
| 参数 | 值 |
|---|---|
| Base URL | https://maas-api.lanyun.net/anthropic |
| 模型名称 | /maas/zhipuai/GLM-5 |
| 接口格式 | Anthropic 兼容 |
| Chat Completions | https://maas-api.lanyun.net/anthropic/v1/messages |
第二步:配置 Claude Code,接入蓝耘 GLM-5
Claude Code 支持自定义模型接入,这里我们把它的底层模型换成蓝耘的 GLM-5,让 Claude Code 用 GLM-5 来辅助我们写代码。
安装 Claude Code
npm install -g @anthropic-ai/claude-code
安装完成后验证:
claude --version
配置蓝耘 API
# 设置蓝耘 MaaS 的 API 信息
set ANTHROPIC_BASE_URL=https://maas-api.lanyun.net/anthropic
set ANTHROPIC_API_KEY=sk-你的蓝耘API密钥
set ANTHROPIC_MODEL=/maas/zhipuai/GLM-5
claude
这里Claude Code提示检测到咱们得环境中存在自定义API密钥,果断选择Yes
此时 Claude Code 已经在后台调用蓝耘 MaaS 平台的 GLM-5 模型。你可以直接用自然语言描述需求,让它帮你生成代码。
蓝耘MaaS平台给每个API KEY都分配了一个监控地址,可以清楚的看到模型消耗的token数量
第三步:用 Claude Code 创建 Next.js 项目
打开终端,启动 Claude Code,输入以下指令:
帮我创建一个 Next.js 14 的 AI 周公解梦应用,
使用 App Router,集成 Tailwind CSS,
前端有一个梦境描述输入框和解梦结果展示区,
后端 API 接入蓝耘 MaaS 的 /maas/zhipuai/GLM-5 模型。
调用示例:
curl --location --request POST 'https://maas-api.lanyun.net/anthropic/v1/messages' \
--header 'x-api-key: **' # **替换为APIKEY
--header 'Content-Type: application/json' \
--data-raw '{
"model": "**", # **替换为模型调用名称
"max_tokens": 1024,
"stream": true,
"messages": [
{
"role": "user",
"content": "今天北京的天气怎么样? "
}
]
}'
Claude Code 会自动帮你生成项目结构。
Claude Code也是执行完毕了,还给咱们得项目给启动了。
清晰的告诉我该如何使用,替换API KEY后访问http://localhost:3000
成功运行
第四步:部署到 Vercel
4.1 推送代码到 GitHub
在 GitHub 上创建一个新仓库ai-zhougong-jiemeng(可以是公开的)
# 初始化并推送代码
git init
git add .
git commit -m "初始提交:AI周公解梦"
git remote add origin https://github.com/你的用户名/ai-zhougong-jiemeng.git
git branch -M main
git push -u origin main
4.2 在 Vercel 上部署
打开 vercel.com,用 GitHub 账号登录
点击 "Add New Project",选择"Project"
点击Continue with Github
导入刚推送的
ai-zhougong-jiemeng 仓库
Framework Preset 会自动检测为 Next.js,保持默认即可
在 Vercel 的部署页面中,展开 "Environment Variables" 部分:
将我们的蓝耘MaaS平台的API KEY配置上去
| Key | Value |
|---|---|
| LANYUN_API_KEY | 蓝耘MaaS平台的API KEY |
填好后点击 Deploy部署
稍等片刻后,出现这个页面则说明部署成功,点击Continue to Dashboard前往仪盘表
会给咱们分配一个Domains域名,直接访问即可。大家可以访问我部署的去玩一下:AI周公解梦
总结
通过这篇文章,我们完整走完了一个 AI 全栈应用从 0 到上线 的全流程:
- 注册蓝耘 MaaS 平台 — 获取 GLM-5 的 API 密钥,整个过程不超过 5 分钟
- 配置 Claude Code — 接入蓝耘的 Anthropic 兼容接口,让 GLM-5 驱动 Claude Code 帮我们写代码
- 用自然语言开发 — 只需一段描述,Claude Code 自动生成完整的 Next.js 项目结构、前端页面、后端 API
- 部署到 Vercel — 推送 GitHub、配置环境变量、一键部署,全程无需手动运维
整个开发过程下来,真正需要自己动手写的代码几乎为零,Claude Code 承包了绝大部分的编码工作,我们只需要把需求描述清楚,剩下的交给 AI 就好。
这套组合的核心价值在于:
- 蓝耘 MaaS 平台提供了稳定、低成本的 GLM-5 API 接入,兼容 Anthropic 接口格式,几乎没有迁移门槛
- Claude Code 把"写代码"这件事变成了"说需求",开发效率提升不止 3 倍
- GLM-5 的中文能力在周公解梦这类文化场景下表现尤为出色,解析内容有深度、有文化底蕴
- Next.js + Vercel 的组合让部署变得极其简单,从本地到线上只需几分钟
如果你也想快速构建一个属于自己的 AI 应用,不妨从这套技术栈入手,先跑通流程,再逐步打磨细节。