我用AI从0搭建了一套Vue+Spring Cloud模拟豆瓣网站,踩坑总结
背景
我是Java工程师,最近准备离职转型,想把AI用进实际项目里。正好想搭一套新的技术框架,就想试试:能不能完全靠AI,从0开始把一个项目跑起来?
于是选了 Vue(前端)+ Spring Cloud(后端),搭一个模拟豆瓣的查询网站。
整个项目前后经历了一周左右,实际AI开发过程大概3-5天。这篇文章记录一下这次真实体验。
一、搭架子:工具选型花了点时间
AI帮我生成了项目结构、配置文件、基础启动类。这步比自己手敲快很多,但不是一次搞定的——中途换了几个工具:
- Cloud Code 本地搭建:先试的这个,效果一般
- IDEA 千问插件:换过来试试,还是不尽人意
- TAE 插件:继续换,依然有各种问题
- 「我知 IDE」+ 云端 MiniMax M2.7:最后这个组合才好用
所以第一步的经验是:工具选型很关键,没有哪个AI工具是万能的。 不同工具在不同场景下表现差很多,得多试几个。
二、写业务:AI填充细节,我把握方向
核心的增删改查逻辑基本是AI写的。
但有个前提:我得先自己理清数据结构、设计API接口,再让AI按我的思路去实现。
AI负责填充细节,我负责把控方向。如果我不先想清楚,AI给出来的东西就很散,改起来更花时间。
这一步的感受是:AI擅长「有参照、有模板」的工作,但它不会帮你做决策。
三、修Bug:最花时间的环节,也是坑最多的地方
项目跑起来之后,遇到了一些Bug。这部分有几个比较深的体会:
1. AI会「越权」
这是个挺有意思的问题。
我设了一个测试智能体,明确规定它只做测试任务,测试完成后把问题文档保存到本地,然后让另一个开发智能体去修复。
结果呢?这个测试智能体跑着跑着,就自己去修Bug了——完全忽略了我给它设定的边界。
为什么会出现这种情况?
因为AI的目标是「解决问题」,而不是「按你的方式解决问题」。它推理的时候发现「修复问题 = 解决问题 = 完成目标」,就自动跳到「修复」这一步了。
这不是Bug,是AI的「目标漂移」现象。想让AI乖乖待在自己的岗位上,比想象中难。
2. 自动化测试不够智能
我想让AI自动跑测试、发现问题、再自动修复,形成一个闭环。但实际用下来,它在这方面还不够成熟,还是得人工盯着,沟通成本比预期高。
3. 沟通调试有成本
有些问题AI会绕远路,需要反复纠正方向。特别是涉及到架构层面的问题,AI给出的方案有时候会比较「短视」,需要人来把控整体方向。
四、打分:7.5分
如果满分10分,我给AI在这次项目里的表现打 7.5分。
加分项:
- 搭架子、写基础业务逻辑很快
- 大部分CRUD代码可以自动生成
- 定位简单问题的效率不错
扣分项:
- 边界控制弱,容易「越权」
- 复杂调试能力不足
- 自动化测试不成熟
- 工具之间表现差异大,需要磨合
五、还剩什么没解决
目前项目能跑起来,但还有几个问题:
- 功能还比较简单,离「完善的产品」有距离
- Cloud Gateway 统一代理配置还没调通,这是目前卡住的一个点
- 如果要发布上线,需要进一步打磨
下一步方向:
- 先完善核心功能,再考虑发布
- Cloud Gateway 的问题,准备研究官方文档,再让AI协助排查
- 后续尝试加入搜索、智能推荐等更复杂的功能,看看AI在更复杂场景下的表现
六、学到什么
这次项目下来,有几个核心感受:
1. AI擅长什么
- 重复性高、有参照的任务:CRUD、代码模板、配置生成
- 格式转换、文档整理
- 简单Bug定位和修复
2. AI不擅长什么
- 需要判断、控制边界的任务
- 复杂调试和架构设计
- 自动化测试和闭环修复
3. 跟AI协作的核心
你有框架,AI填充细节。
如果你自己都不清楚要做什么、怎么做,AI也帮不了你。它只能在你已经想清楚的基础上,帮你把执行变快。
七、一句话总结
AI把「写代码」这件事变快了,但「想清楚做什么」「怎么做」「做对方向」——这些还是得靠自己。
这次项目让我对AI的实际能力有了更真实的认知。它不是魔法棒,也不是甩手掌柜,更像是一个「需要你不断纠正方向的聪明助手」。
后续会继续在这个项目上迭代,看看AI在更复杂场景下能帮到什么程度。有新的体会再更新。
作者:Java工程师,正在探索AI应用开发
项目:Vue + Spring Cloud 模拟豆瓣查询网站
时间:2026年3月