ai-agent工程师指南

18 阅读2分钟

一些基本概念

1 Zero-shot & Few-shot 是什么?

1. Zero-shot(零样本)

不给例子,直接让模型做。

  • 不提供任何参考样例
  • 只告诉模型任务是什么
  • 完全靠模型本身能力去理解、推理

例子

把下面句子分类成积极 / 消极:这部电影太好看了!

这就是 zero-shot


2. Few-shot(少样本 / 小样本)

给几个例子,再让模型做。

  • 1~10 个左右的示例
  • 告诉模型:我要你像这样输出
  • 模型照着格式、逻辑去做

例子

分类:今天心情很好 → 积极分类:这部电影好无聊 → 消极分类:这家店味道超赞 →?

这就是 few-shot


一句话总结

  • Zero-shot:不给例子,直接干。
  • Few-shot:给几个例子,照着干。

2 RAG 是什么?

RAG = Retrieval-Augmented Generation****检索增强生成

一句话:先从外部资料里查相关内容 → 再把查到的内容喂给大模型 → 让模型基于真实资料回答。

3 Embedding 模型 是什么?

一句话:把文字、图片、声音等信息,变成一串数字(向量),让计算机能 “看懂、比较、计算”。


1. 核心作用

人理解文字靠语义,计算机只认数字。Embedding 模型做的就是:把 “语义” → 变成 “向量”

比如:

  • “苹果” → [0.1, 0.5, -0.2, …]
  • “香蕉” → [0.12, 0.48, -0.19, …]
  • “汽车” → [ -0.8, 0.1, 0.3, …]

语义越接近,向量越接近。


2. 它能干什么?(最常见用途)

  1. 搜索搜 “好吃的水果”,能找到苹果、香蕉,而不是汽车。
  2. 推荐你看了 A 文章,给你推语义相似的 B 文章。
  3. 知识库问答 / RAG把文档变成 embedding,用户提问也转成 embedding,找最相似的段落
  4. 分类、聚类自动把相似内容归为一类。

3. 和普通大模型有什么区别?

  • 大模型(如 GPT、Llama) :生成文字、回答问题。
  • Embedding 模型不生成文字,只做 “语义编码”

4. 简单例子(你马上能懂)

你问:“什么是猫?”

  1. 问题 → 转成 embedding 向量
  2. 库里所有文档 → 都提前转成 embedding
  3. 计算机算距离,找到最接近的文档
  4. 把那段文字丢给大模型回答

这就是现在最火的 RAG(检索增强生成) 的核心。


5. 常用的 Embedding 模型

  • OpenAI:text-embedding-ada-002text-embedding-3
  • 开源:BGEm3etext2vec(中文很强)
  • 特点:小、快、省显存,低配电脑也能跑。

超简总结

Embedding 模型 = 语义翻译官把人类语言 → 翻译成计算机能理解的数字向量,用来做:搜索、推荐、知识库、相似度匹配。