Vibe Coding 概念大全

320 阅读31分钟

Vibe Coding 概念大全

  • 本文内容基于公开资料整理与个人实践总结,力求用清晰易懂的方式,带你一文掌握 AI 编程的核心术语

AI 基础概念

人工智能(AI)

说白了,就是让电脑学会像人一样动脑子——能理解问题、自己学东西、还能想办法解决。 在 Vibe Coding 里,AI 就相当于你随叫随到的编程搭子:你只要说清楚想干啥,它立马帮你把代码写好,跟有个程序员朋友全天候待命差不多。

大语言模型(LLM

大语言模型(LLM)就是一种特别能“说人话”的AI,像 ChatGPT、Claude 这些都是它的代表。 它之所以叫“大”,是因为背后有几十亿甚至上万亿个“小开关”(参数)在运作——读过的资料越多、学得越深,就越聪明,但同时也更费电脑资源。

你可以把它想象成一个通宵啃完全世界书和代码的超级学霸:你让它写代码、讲代码、改bug,它基本都能搞定,因为它啥都见过、啥都练过。

模型参数

模型的“参数”其实就是它学到的知识,用一堆数字存着。参数越多,说明这模型“脑子”里装的东西越多,通常也就越聪明。

举个例子:

  • GPT-4 脑子最大,有大约1.8万亿个参数;
  • Claude 3.5 Sonnet 没公布具体数字,但估计也有几千亿;
  • DeepSeek-V3 有6710亿个参数。

不过,参数多也意味着更“烧钱”——不仅训练贵,用起来也更费电、更占资源。所以一般来说:参数越多,能力越强,但花的钱和算力也越多。

训练和推理

训练和推理,就是AI的“学习”和“考试”两个阶段。

训练:相当于AI在“上学”,拼命看海量数据(比如书、代码、网页),把知识学到脑子里。这个过程特别费时间、费电脑,一般只有大公司才干得起,普通人不用操心。

推理:就是AI“学成出山”后,你问它问题,它用学到的东西给你回答——比如你跟ChatGPT聊天、让它写代码,这时候它就是在“答题”。

简单说:训练是AI自己埋头苦读,推理是你用它现成的本事。我们平时用AI,其实都是在用它的“考试能力”。

微调(Fine-tuning)

微调就像是给一个已经大学毕业的AI“再上个专业培训班”。

它本来啥都懂一点,但如果你拿一堆医学资料或者你公司的代码专门训练它一阵子,它就能在那个领域变得更专业、更对口。

不过,搞微调要花不少钱和精力,对普通人来说有点“杀鸡用牛刀”。大多数时候,直接用现成的AI就完全够用了,不用自己折腾。

Token 和计费

Token

Token 就是 AI 看文字时的“最小计数单位”,你可以把它当成“词块”或者“字块”。

  • 英文里,一个单词(比如 "hello")大概算 1 个 token,有时候一个词还会被拆成几块。
  • 中文更“费”一点,一个汉字通常算 1 到 2 个 token,所以中文比英文更容易“烧”token。

为啥要关心这个?因为用 AI 是按 token 收费的——你输入的问题 + AI 回答的内容,全都要算进去。用得越多,花得越多。

举个例子:

  • “Hello World” ≈ 2 个 token
  • “你好世界” ≈ 4 到 6 个 token

所以,别小看多打几个字,可能就多花几分钱!

输入 Token 和输出 Token

用 AI 时,收费是分开算的:

  • 你发给 AI 的内容(比如问题、代码、文件)算“输入 token”;
  • AI 回给你的答案(比如解释、生成的代码)算“输出 token”。

而且通常 输出比输入更贵,因为让 AI “动脑子写东西”比“看懂你在说啥”更费劲、更耗资源。

省钱妙招: 别啰嗦,提示词尽量写得清楚又简洁。这样 AI 一次就搞明白你要干啥,不用来回问好几轮——既省 token,又省时间!

上下文窗口

上下文窗口就是 AI 一次能“看”和“记住”多少内容,用 token 来算。你可以把它想象成 AI 的“临时记忆容量”。

不同模型这个容量差别很大:

  • GPT-4o 能记大约 10 万字中文;
  • Claude 3.5 Sonnet 能记约 15 万字;
  • Gemini 2.0 Pro 更猛,能记下差不多 150 万字——相当于一本小书了!

好处是:代码文件特别大、对话历史特别长的时候,大窗口模型不会“忘前事”,处理起来更顺畅。

但注意:窗口越大,每次用的 token 就越多,花的钱也越多。所以别盲目追求大,够用就行——就像吃饭,吃太撑反而浪费。

提示词相关

提示词(Prompt)

提示词就是你跟 AI 说话的方式——你告诉它要干啥,越清楚,它干得越好。

别只说“做个网站”这种模糊话,那等于让别人“做顿饭”,却不说是中餐还是西餐。 好的提示词得具体、带背景、说清格式,比如:

“用 React 做个蓝色主题的记账网站,要有添加支出、查看列表、统计总额这三个功能。”

这样 AI 才能精准干活,不瞎猜。

另外,AI 对话其实有三种“角色”:

  • 系统提示(你看不见):悄悄告诉 AI “你是个程序员,要专业、简洁”;
  • 你发的消息(用户提示):就是你的需求或问题;
  • AI 回的(助手提示):它的回答。

知道这三块有啥用?比如调试时,你可以假装前面已经聊过几轮,把上下文“喂”给 AI,它就能更懂你在说啥,不用从头解释。

总之:会说话,AI 才会办事

系统提示词

系统提示词就像是你在 AI 开工前,悄悄给它立的“人设”和“规矩”。

比如你告诉它:

“你是个资深 React 开发,说话要专业,代码要简洁清晰。”

那接下来整个对话里,它都会按这个角色来回答——不会突然跑偏去讲 Python,也不会写一堆啰嗦的注释。

这个设置是全程生效的,而且对用户自己不可见(但能影响 AI 的表现)。 所以,如果你希望 AI 更像某个领域的专家、语气更正式或更随意,都可以通过系统提示词提前“调教”好。

简单说:系统提示词 = 给 AI 定角色、定风格、定规矩的幕后指令

提示词工程

提示词工程说白了,就是“怎么跟 AI 把话说到位”的技巧。

你不是随便问一句,而是有策略地组织语言,让 AI 一眼就明白你要啥、怎么干、干成什么样。 在 Vibe Coding 里,这本事特别值钱——会写提示词的人,往往一两句话就能让 AI 输出高质量代码;不会的,可能来回折腾好几轮还跑偏。

所以,提示词工程 = 用最聪明的方式指挥 AI,少废话、快出活、结果准。 它不是玄学,而是一门“让 AI 听懂人话”的实用技能。

零样本提示(Zero-shot)

零样本提示就是你直接给 AI 下命令,不给例子、不带示范,全靠它自己“凭经验”干活。

比如你直接说:“把这段英文翻译成中文。” AI 就会调用它以前学过的东西,试着完成任务。

这种方式适合简单、常见的任务,比如翻译、解释概念、写个基础函数——因为这些它见得太多了,不用教也会。

但要是任务比较冷门或复杂,光靠零样本可能不够准,这时候就得给点例子(也就是“少样本提示”)帮它理解。

简单说:零样本 = 一句话直接吩咐,AI 靠老本儿干活。能行就行,不行就得多教两招。

少样本提示(Few-shot)

少样本提示就是“先给 AI 打个样”,让它照着你的格式或风格来干活。

比如你想让 AI 翻译,但又怕它乱翻,就先写两三个例子:

英文:Hello → 中文:你好 英文:Thank you → 中文:谢谢

然后你再给新句子,它就会模仿你给的格式,乖乖输出“中文:早上好”这种一致的结果。

这种方式特别适合:

  • 你有特定格式要求(比如日志、表格、代码注释)
  • 或者任务有点模糊,光说不清,得看例子才明白

简单说:少样本提示 = 先示范,再干活,AI 学得快、做得准。比干巴巴下命令靠谱多了。

思维链提示(Chain-of-Thought)

思维链提示就是让 AI 别急着“脱口而出”,而是像人一样一步一步想清楚再答

你只要在问题里加一句:“请一步一步思考”或者“Let’s think step by step”,AI 就会先把问题拆解、分析逻辑、理清步骤,最后再给答案。

这招对复杂问题特别管用——比如写一个带多个功能的程序、排查奇怪的 bug,或者处理有陷阱的逻辑题。 因为 AI 一旦跳过思考直接写代码,很容易漏掉细节;但让它“出声思考”(哪怕只是文字),往往能写出更合理、更靠谱的代码。

简单说:加一句“慢慢想”,AI 就从“抢答选手”变成“认真解题的学霸” 。结果更准,结构也更清晰。

Markdown 语言

Markdown 就是用简单符号快速排版文字的方法,比如:

  • # 写标题
  • **加粗** 让字变粗
  • - 列清单

在 Vibe Coding 里,它特别常用,因为:

  • AI 回答你时,默认就用 Markdown 格式(带标题、代码块、列表等)
  • 项目说明文件(比如 README)基本都是用 Markdown 写的
  • 一些规则或配置文档也是 Markdown

所以,会点 Markdown,你就能看得懂 AI 的输出,也能写出整洁专业的文档——不用点鼠标调格式,敲几个符号就行,又快又清爽。

AI 编程模式

Vibe Coding

Vibe Coding 是计算机大牛 Andrej Karpathy 在 2025 年初提出来的一个新玩法:你不用自己敲代码,只要用大白话告诉 AI 你想要什么功能、希望程序怎么运行,AI 就能帮你写出能跑的代码。

说白了,编程的重点不再是记语法、写细节,而是你能把自己的想法说清楚。就像点外卖——你不用会做菜,但得知道自己想吃啥,剩下的交给厨房(也就是 AI)搞定

Agentic Coding 智能体编程

Agentic Coding 就是让 AI 像个能自己动脑干活的“小助手”,不光听你问才答,还能主动规划、动手、检查、修错。

比如在 Cursor 的 Agent 模式里,它能自己看代码、想方案、改文件、跑测试,发现问题还能自动修好——整个过程不用你一步步指挥。 说白了,它不是“问答机”,而是“办事员”,能独立搞定一整套复杂任务。

多智能体协作

多智能体协作,说白了就是让几个 AI 各干各的活儿,像组了个小团队一起搞项目。

比如你想做个网站:一个 AI 负责搭整体结构,一个写页面(前端),一个搞后台逻辑(后端),还有一个专门挑毛病、查代码漏洞。它们互相配合,不用你挨个指挥。

这两年这玩法越来越火,因为单个 AI 再聪明也容易顾此失彼,而“团队作战”才能扛得住真正复杂的活儿——就像没人指望一个人又当设计师又当程序员还当测试员,对吧?

智能体编排

编排其实就是当“AI 团队的包工头”。

你有一堆 AI 智能体,各自会干点活,但谁先干、谁后干、怎么传数据、结果怎么拼起来——这些都得有人安排。编排器就是干这个的:不亲自写代码,但把整个流程理顺,让每个 AI 在对的时间干对的事。

就像乐队指挥,自己不吹号不拉琴,但一抬手,小提琴进,鼓点跟上,铜管收尾——整首曲子才不乱套。没它,一群 AI 各自为战,反而容易搞砸。

Agent Loop 智能体循环

Agent Loop 说白了,就是 AI 干活的“思考-动手-检查”循环。

它不是一次性给你答案就完事,而是像人一样反复折腾: 先看看现在啥情况(比如读代码、看报错), 然后想“接下来该干啥”, 接着动手改、跑命令、写点东西, 再回头瞅一眼“改对了没?跑通了吗?”, 要是不行,就再来一轮——直到搞定为止。

用 Cursor Agent 的时候,你其实是在放一个会自己试错、调整、死磕到底的 AI 程序员在干活。理解这点,你就知道为啥它有时候要来回跑好几次——不是卡了,是在认真闭环。

ReAct 推理与行动

ReAct(Reasoning and Acting)

ReAct 其实就是让 AI 学会“边想边干,干了再想”。

以前的 AI 要么光说不练(只输出答案),要么瞎干一通(直接执行不思考)。ReAct 改变了这个毛病:它让 AI 先动脑子——“现在啥情况?该怎么做?”;然后动手试一试;做完马上看结果对不对;如果不对,立刻调整思路再来。

这就像你修电脑:先判断是不是网线松了(推理),去插紧(行动),看能不能上网(观察),不行就换思路查路由器(再推理)…… AI 用 ReAct 就是这么一步步靠谱地把复杂任务搞定的。现在的智能编程工具,背后基本都靠这套逻辑撑着。

工具调用

工具调用,其实就是让 AI 从“嘴炮”变成“能动手”的关键一步。

AI 本身只会生成文字,干不了实际的事。但通过工具调用,它能在需要时“喊人帮忙”——比如读文件、跑命令、查网页、连数据库等等。

整个过程分四步,特别像你指挥一个实习生:

  1. 看出问题:AI 想,“光靠我说不行,得查点东西”;
  2. 选对工具:决定是读文件、还是调 API
  3. 下指令:不是自己干,而是说清楚“请用 XX 工具,参数是 A、B、C”;
  4. 收结果再处理:等系统真把结果拿回来,它再结合这个信息继续干活或回答你。

重点来了:AI 并不直接操作电脑,它只是“开单子”,真正执行的是背后的程序。

在 Vibe Coding 里,这套机制就是 AI 的“手和脚”。比如 Cursor 的 Agent 模式,之所以能自动改代码、跑测试,全靠它不断调用外部工具——没这能力,AI 再聪明也只能纸上谈兵。

Agent Skills 智能体技能

Agent Skills 就像是给 AI 装“专业插件包”,让它临时变成某个领域的老手。

Anthropic 在 2025 年底搞了个标准:你只要建个文件夹,放个 SKILL.md 说明文档,再配上脚本、规则或参考资料,AI 遇到相关任务时就会自动“加载这个技能”。

比如:

  • 你有个 PDF 表单填写 的 Skill,AI 原本不会处理 PDF,但一加载它,立马知道怎么填;
  • 你团队有套特殊的 上线部署流程?写成一个 Skill,AI 就能照着你的规矩来,不用你每次手把手教;
  • 想让 AI 按你们项目的风格 审查代码?丢个代码规范 Skill 给它,它就按你的标准挑毛病。

最关键的是,AI 不会一股脑把所有技能都塞进脑子——只在真正用得上的时候才调出来。这样既省资源,又不卡顿,就像人一样:平时不用记怎么做心肺复苏,等真遇到急救场景,才翻手册或调用训练记忆。

说白了,Skills 让 AI 从“通才”变成“随叫随到的专家”。

Skills 的核心设计是 渐进式披露:AI 只在需要时才加载相关内容,不会一次性把所有信息都塞进上下文,既节省 Token 又保持灵活性

A2A(Agent-to-Agent)

A2A(Agent-to-Agent)说白了,就是给 AI 们定一套“团队聊天规则”。

单个 AI 再厉害,干大活也容易抓瞎。但如果几个 AI 能像同事一样互相说话、分任务、同步进度,事情就好办多了。 A2A 就是让它们能互相理解、协调行动的底层约定——比如一个 AI 说“前端我搞定了,后端你接着来”,另一个就能听懂并接上。

没有这套协议,每个 AI 都是孤岛;有了它,它们才能真组成一个配合默契的“AI 小组”,一起搞定复杂项目。 就像打篮球,光个人技术好不够,得会传球、喊话、看队友位置——A2A 就是 AI 团队的“场上沟通”。

BMAD 敏捷 AI 开发方法

BMAD-METHOD(Breakthrough Method of Agile AI-Driven Development,突破性敏捷 AI 驱动开发方法)是一套系统化的 AI 智能体开发框架,旨在将原本混乱的 AI 编程过程变得结构化、可复用。

BMAD 方法,说白了就是给 AI 编程“立规矩、分角色”,把原来靠感觉瞎跑的 AI 开发,变成一套像正规军打仗一样的流程。

它把整个开发过程拆成几个明确角色,每个 AI 负责一块:

  • 分析师 AI:搞清楚用户是谁、市场要啥,输出项目简报;
  • 产品经理 AI:把简报变成具体功能清单(PRD);
  • 架构师 AI:设计技术方案,决定用什么框架、怎么搭系统。

而且 AI 还分两种:

  • 简单 AI:干点小事,比如写个文档、查个代码,一个文件搞定;
  • 专家 AI:能记住上次干到哪,有自己的“工作台”(专属文件夹),适合长期复杂任务,比如从零搭一个 App

每个 AI 都有清晰的“人设”——你是谁、说话啥风格、能干啥、怎么配合别人,全都标准化了。不是随便乱聊,而是各司其职、按流程推进。

这套方法在 GitHub 上火到几万星,说明大家终于意识到:光靠一个 AI 盲打蛮干不行,得像管理真人团队一样,让 AI 有分工、有纪律、有记忆——这才真正把 AI 变成了靠谱的开发伙伴。 image-20260203134822554.png

Browser Use 浏览器使用

Browser Use 说白了,就是让 AI 能像真人一样“自己开浏览器干活”。

它不靠网站提供 API,而是直接操作网页:点按钮、填表单、翻页面、抓数据——就跟你在电脑前手动操作一模一样。

典型用法比如:

  • 让 AI 自己去网上搜资料、比价格、整理信息;
  • 把网页上的表格或新闻自动扒下来变成结构化数据;
  • 帮你填那种又长又烦的在线申请表;
  • 甚至跨多个网站串着操作,比如先查航班、再订酒店、最后发邮件确认。

关键优势是:AI 能直接用你已经登录的浏览器。你不用给每个网站写接口,也不用担心没开放 API——只要你能打开的网页,AI 基本都能操作。

现在像 Cursor、Claude Code 这些工具都内置了这能力,写代码时能自动开浏览器预览、跑测试;开源项目比如 Browser-Use 也让你用 Python 调大模型来控制浏览器。

一句话总结:Browser Use 让 AI 真正“上网”,而不只是“联网说话”。

Computer Use 计算机使用

Computer Use 就是让 AI 从“会说话”升级成“会动手操作你整个电脑”。

和只能在浏览器里点点点的 Browser Use 不同,Computer Use 能干的事更广: 它能看屏幕、移动鼠标、敲键盘、开软件、跑命令行——就像有个看不见的数字员工坐在你电脑前干活。

它是这么工作的:

  1. 看一眼屏幕(截屏分析当前界面)
  2. 想下一步干啥(比如“点这个保存按钮”)
  3. 动手操作(模拟鼠标点击或键盘输入)
  4. 看结果对不对,不对就再调整

当然,为了安全,这功能一般跑在虚拟机里,不会真动你本机文件——除非你明确授权。

Anthropic 在 2026 年基于这个技术推出了 Claude Cowork,一个能直接帮你整理下载文件夹、从截图里抠数据填表格、甚至做品牌周报的桌面助手。 它不再只是聊天框里的“嘴替”,而是真正能进你工作流、碰你文件、用你软件的“同事”。

说到底,Computer Use 标志着 AI 从“回答问题”迈进了“替你做事”的时代——不是写代码给你,而是直接在你电脑上把事办了。

上下文管理

上下文(Context)

上下文,就是 AI 回答问题时能“看到”的所有背景信息。

比如:你们之前聊了啥、你当前打开了哪些代码文件、项目整体长什么样、配置是怎么设的,还有你额外给的文档或说明——这些都算。

你给的上下文越准、越全,AI 写出来的东西就越贴合你的实际需求。 这就像带新同事接手项目:你要是只说“你改一下登录功能”,他可能瞎改;但如果你顺手把相关文件、设计稿、历史问题都指给他看,他立马就能上手干对事。

所以,别光提需求,多让 AI “看见”你的项目现场——它才能真帮上忙。

上下文工程

上下文工程,说白了就是“给 AI 喂刚好够用的信息”,不多不少,刚刚好。

太多信息?AI 容易懵、跑偏,还费钱; 太少信息?它根本不知道你在干啥,瞎猜一通。

所以高手会这样干:

  • 只塞最相关的代码文件,别把整个项目一股脑扔进去;
  • 附上几句关键背景,比如“这是个电商后台,用户要能一键退款”;
  • 用规则文件(比如 .ai-rules.md)告诉 AI 你们项目的命名规范、技术栈、禁忌;
  • 还会定期清理旧对话,别让上周聊的登录功能干扰今天改的支付逻辑。

本质上,上下文工程不是堆信息,而是精准投喂——像给同事递工具,你要的是扳手,我就递扳手,不连锤子锯子螺丝刀全砸你桌上。

这样 AI 才能又快又准地干活。

规则文件

规则文件(Rules File)是放在项目中的配置文件,用来告诉 AI 你的项目规范、技术栈、代码风格等信息。有了规则文件,AI 每次生成代码时都可以参考这些规则,生成的代码更符合你的项目风格,省去了反复强调的麻烦。

不同 AI 编程工具使用不同的规则文件格式:

  • Cursor:早期使用 .cursorrules 单文件格式,现在推荐使用 .cursor/rules/*.mdc 多文件格式
  • Claude Code:使用 CLAUDE.md 文件
  • GitHub Copilot:使用 .github/copilot-instructions.md 文件

Cursor 为例,现代的 .mdc 规则文件支持 YAML 元数据,可以指定规则的适用范围:

---
description: React 组件开发规范
globs: src/components/**/*.tsx
alwaysApply: false
---
# React 规范
- 使用函数式组件
- 优先使用 hooks

规则文件的激活方式有多种,比如:

  • 始终生效:设置 alwaysApply: true
  • 模式匹配:当引用匹配 globs 的文件时自动激活
  • 手动调用:在对话中用 @规则名 引用
  • AI 自主决定:AI 根据任务相关性自动加载

💡 注意,随着工具版本的更新,这些文件的名称和标准可能会发生改变,一切以工具官方文档为主。

AGENTS.md

AGENTS.md 说白了,就是专给 AI 看的“项目操作手册”。

你平时写的 README.md 是给人看的——讲项目是干啥的、怎么安装; 而 AGENTS.md 是给 AI 编程助手用的——告诉它:在这个项目里,具体该怎么干活

比如:

  • 跑起来要输什么命令(npm run dev
  • 测试怎么执行(npm test
  • 代码命名规矩(组件用 PascalCase,工具函数用 camelCase
  • 用的是 TypeScript 严格模式……

AI 工具(像 Cursor、Claude Code、Copilot 等)一打开你的项目,只要看到根目录有 AGENTS.md,就会自动读取里面的内容,不用你再重复叮嘱“记得用 TS”“别乱改启动方式”。

这文件现在成了一个开放标准,几万个开源项目都在用。 相当于你给所有 AI 助手发了一张“上岗须知”——它们一进门就知道规矩,直接上手干对事,不添乱。

一句话:README.md 告诉人“这是什么”,AGENTS.md 告诉 AI“该怎么干”。

一个典型的 AGENTS.md 文件大概长这样:

# 项目设置
- 安装依赖:npm install
- 启动开发:npm run dev
- 运行测试:npm test
​
# 代码规范
- 使用 TypeScript 严格模式
- 组件文件使用 PascalCase 命名
- 工具函数使用 camelCase 命名

SDD 规范驱动开发

SDD(规范驱动开发)说白了,就是先写清楚“到底要干啥”,再让 AI 动手写代码——把需求变成“法律”,AI 必须照章办事。

以前我们常是:边想边写、写完再补文档,结果代码和需求对不上,改来改去全是坑。 SDD 反过来:规范文档是唯一真相源,代码只是它的“执行结果”。

你可以把它理解成给项目立一部“宪法”:

  • 功能要实现什么?
  • 接口长什么样?
  • 出错怎么处理?
  • 用什么技术栈? 全写明白,AI 才能精准输出,而不是靠你一句模糊的“做个登录页面”瞎猜。

为啥现在越来越多人用 SDD? 因为大家发现:AI 写得好不好,不靠 prompt 玩花活,而靠需求清不清楚。一份好规范,胜过一百条“请认真一点”的提示。

典型流程也很清晰:

  1. 定原则:比如“必须响应式”“错误率低于0.1%”
  2. 写需求:用户是谁?要解决什么问题?
  3. 问清楚:让 AI 自己提问题,比如“手机号格式校验要多严?”
  4. 做设计:定架构、API、数据模型
  5. 拆任务:把大活切成小块,标好先后顺序
  6. 生成代码:AI 按任务一项项实现,你只负责验收

2025 年 GitHub 还出了个 Spec Kit 工具包,用 /spec/plan 这类命令一步步带你走完这套流程,主流 AI 编程工具都支持。

总结一句话:SDD 不是让人类少写代码,而是让 AI 少犯错——先想透,再动手,才是 AI 时代的高效开发

RAG 检索增强生成

RAG 说白了,就是给 AI 装个“随身资料库”,让它能边查边答,而不是光靠死记硬背。

普通 AI 回答问题全靠训练时学过的东西——就像考试只准用脑子,不能翻书。 但用了 RAG,AI 就像进了考场还能带你的项目文档、代码库、内部 Wiki 当“开卷参考资料”: 它先快速搜一遍你提供的材料,找到相关片段,再结合这些内容生成答案。

在 Vibe Coding 里这招特别管用——比如你要加个新功能,AI 不是凭空瞎写,而是先翻你现有的代码,看你怎么命名、怎么组织逻辑、用什么工具库,然后照着你的风格写出来,新代码和老代码像一个团队写的

一句话:RAG 让 AI 从“凭记忆答题”变成“查你家底干活”,更准、更贴合、更少返工。

向量数据库

向量数据库,说白了就是个“懂意思”的搜索库。

普通搜索靠关键词匹配——你搜“登录”,就只能找到带“登录”俩字的内容; 但向量数据库先把你的代码、文档转成一串数字(叫“向量”),这串数能代表它的意思

所以当你搜“用户登录”,哪怕某个函数叫 handleAuthverifySession,只要它干的是登录的事,系统也能认出来并找给你——因为它们的“语义”很接近。

在 AI 编程里,这就意味着: AI 能快速翻出项目里真正相关的代码片段,哪怕命名风格五花八门、注释写得少,它也能“心领神会”。

相当于给你的项目装了个“语义雷达”——不看字面,看意图。

嵌入 Embedding

嵌入(Embedding)说白了,就是把文字或代码“翻译”成一串数字,这串数字能代表它的意思

比如“用户登录”和 function authenticateUser() 看起来字不一样,但经过嵌入后,它们在数字空间里会离得很近——因为意思差不多。

正是靠这个,向量数据库才能做到“语义搜索”:你搜一个概念,它能找到干同一件事但命名不同的代码。

你不用搞懂它怎么算的,只要记住: 嵌入是让 AI 能“理解意思”而不是“死抠字眼”的底层技术,也是 RAG、智能代码补全这些功能能跑起来的关键。

MCP 模型上下文协议

MCP(Model Context Protocol)说白了,就是给 AI 世界定了个“通用插口”——就像 USB 之于电脑。

以前,每个工具(比如数据库、FigmaGitHub)都得单独给 AI 写一套对接代码,费时又重复。 现在有了 MCP 这个开放标准,只要工具按这个协议“插上”,所有支持 MCP 的 AI(比如 Claude Code、Cursor 等)都能直接用它,不用再一个个适配。

在 Vibe Coding 里,这等于给 AI 开了外挂:

  • 接上 Figma MCP,AI 能直接看设计稿,自动生成网页代码;
  • 接上 GitHub MCP,它能自己提 PR、查 issue、同步仓库;
  • 接上 数据库 MCP,它能查真实业务数据,边分析边写逻辑。

关键不是“AI 变聪明了”,而是它终于能安全、标准地连上你的真实工作环境MCP 不是功能,而是让各种功能能被轻松“即插即用”的底座——从此 AI 不再困在聊天框里,而是真正走进你的开发流。

AI 输出相关

AI 幻觉

AI 幻觉,说白了就是 AI “一本正经地胡说八道”—— 比如给你一个根本不存在的函数名、瞎编某个库的用法,或者信口开河说“这个 API 支持 XXX”,其实压根没有。

这不是它故意骗你,而是大模型天生靠“猜概率”说话:只要听起来合理,哪怕没这回事,它也可能脱口而出。

怎么防?几个土办法很管用:

  • 让它交证据:直接问“这 API 有官方文档吗?发链接看看”;
  • 自己动手查:别全信,关键地方翻一遍官网或源码;
  • 换个人问:换个模型(比如从 Claude 换到 GPT)看说法是否一致;
  • 重启对话:有时候上下文乱了会带偏 AI,新开一个窗口重说需求,反而更准。

记住:AI 是个聪明但爱脑补的实习生,你可以用它的效率,但得守住你的判断

温度

“温度”就是 AI 的“脑洞开关”。

  • 温度调低(比如 0.1) :AI 变得一本正经、按部就班,输出稳定、靠谱——写代码就该这样,少整花活,别瞎创新。
  • 温度调高(比如 1.0+) :AI 开始放飞自我,想法多但容易跑偏,适合聊创意、想点子,但不适合写能跑的代码。

所以编程时,一般把温度压低点—— 你不是要一个诗人,而是一个守规矩的程序员。

流式输出

流式输出,就是 AI 边想边说,字一个一个蹦出来给你看—— 不像以前非得等它憋完一大段才显示。

好处很明显: 你一眼看出它跑偏了(比如开始写错框架、用错 API),立马点停止,省时间、省 Token,也少生气。

这就像跟人聊天时对方一句句说,你随时能插话:“打住,不是这个意思!” 而不是等他讲完十分钟小作文,才发现全答错了。

现在主流 AI 编程工具基本都默认开流式,体验更自然,也更可控——毕竟,快反馈比完美输出更重要

项目管理概念

MVP(最小可行产品)

MVP 就是“先做个能用的最小版本,别一上来就想造宇宙”。

核心就一点:只做最必要的功能,先把核心问题解决掉

比如你想做个记账 App,MVP 可能就俩功能:

  • 能记一笔花了多少钱
  • 能看到所有记录

别的像图表分析、多账户同步、自动分类……统统先砍掉。

好处很明显:

  • 一周就能跑起来,不用搞三个月;
  • 马上拿给用户试,看他们到底用不用、卡在哪;
  • 如果没人用,亏的时间也少;如果真有用,再加功能也不迟。

说白了,MVP 不是“做简陋”,而是用最低成本验证你是不是在干一件值得干的事

迭代开发

迭代开发,说白了就是“先跑起来,再慢慢升级”。

别想着一口吃成胖子,而是把大项目拆成一个个小版本: 每个周期就干几件事——定个小目标、让 AI 写代码、你测一测、发个可用版、收点反馈、再优化。

在 Vibe Coding 里特别顺手: 你先让 AI 实现最核心的功能(比如“能登录”),跑通了、没问题, 再下一轮加“找回密码”,再下一轮加“第三方登录”…… 一步步来,每步都可控、可测、可停。

这样既避免 AI 一次性搞太复杂而翻车,也让你能及时调整方向—— 毕竟,跑得快不如跑得稳,改得快才是真敏捷

重构

重构,就是给代码“做整理、不做改动”——功能一模一样,但让它变得更干净、更好懂、更好改。

比如:

  • 把重复的几行抽成一个函数
  • a1tmp 这种名字改成 userEmailisValid
  • 把嵌套八层的 if 拆清爽
  • 把 500 行的大文件切成几个小模块

在 Vibe Coding 里,你可以直接让 AI 帮你干这事,比如:“把这段逻辑提取成独立函数,并重命名变量让它更清晰”。

但记住一点:一次只动一小块,改完马上测。 别让 AI 一口气“优化”整个项目——看着爽,跑起来崩,反而更难修。

重构不是炫技,是为了让代码活得更久、改得更快。

技术债

技术债,说白了就是“现在图快,以后遭罪”。

比如为了赶上线,你让 AI 生成一段能跑但乱糟糟的代码:逻辑硬编码、没注释、重复一堆…… 当时是快了,但以后每次改功能、修 bug,都得在泥潭里打滚——改一处,崩三处。

这就像刷信用卡:今天爽了,明天连本带利还,越拖利息越高。 AI 写代码尤其容易埋这种雷——它只管“跑通”,不管“好不好改”。

所以得定期主动还债

  • 每隔一阵子,挑关键模块让 AI 帮你重构;
  • 别等代码烂到没人敢动才动手;
  • 把“整洁可维护”当成需求的一部分,不是可选项。

记住:省下的那点时间,迟早会以十倍代价还回去。 别让 AI 帮你堆出一座“屎山”,再聪明的助手也救不了。

版本控制

版本控制,就是给代码装“后悔药”和“时光机”。

你每改一次代码,它都记下来:谁改的、改了啥、为啥改。 要是 AI 一通操作把项目搞崩了,你不用抓狂重写——一键退回上个好用的版本就行

Git 是干这活儿最常用的工具,GitHub 则是大家存代码、协作的地方。

在 Vibe Coding 里,这玩意儿尤其关键: 你让 AI 大改一通,结果跑不起来?别慌,git checkout 回退一下,世界清净。 甚至可以开个新分支让 AI 随便试,搞砸了也不影响主代码。

说白了:有版本控制,你才敢放手让 AI 干活;没它,等于蒙眼走钢丝

部署

部署,说白了就是“把做好的东西搬上线,让人能用上”。

你本地写完代码,用户可看不见——得把它传到服务器上跑起来。 现在这事比以前简单多了,基本不用自己配服务器,直接用现成平台:

  • Vercel:前端、Next.js 项目一键上线,连数据库都能带;
  • Netlify:静态网站、React/Vue 项目秒部署,还送免费域名和 CDN
  • Railway / Render:后端 API、Node/Python 服务扔上去就能跑;
  • 甚至像 Bolt.new 这类零代码工具,点个按钮就自动部署+生成链接。

在 Vibe Coding 时代,很多 AI 工具还能自动帮你打包、推送到这些平台——你只管写需求,它连上线都包了。

但记住:能跑 ≠ 能用。部署只是第一步,监控、日志、错误处理这些也得跟上。不过至少,现在“上线”这件事,真的不再是个门槛了。