1. Prompt Engineering
-
它是什么? 提示词工程是一门设计和优化输入提示(Prompt)的艺术与科学,目的是从大模型中引出更准确、更相关、更符合预期的输出。
-
为什么重要? 大模型本身就像一个知识渊博但需要引导的专家。糟糕的提问会得到糟糕的回答。好的提示词可以充分发挥模型的潜力。
-
核心思想: 通过提供清晰的指令、上下文、示例(少样本学习)、角色设定、输出格式要求等,来“编程”大模型。
-
举例:
- 差提示: “总结一下会议。”
- 好提示: “你是一个专业的会议记录员。请将以下会议记录总结为三个要点,并列出两项待办事项及其负责人。输出格式为:### 要点总结\n1. ... \n### 待办事项\n1. [任务] - [负责人]”
2. Function Calling
-
它是什么? 一种让大模型具备“动手能力”的机制。模型本身无法执行外部操作(如查数据库、发邮件、调用API),但通过Function Calling,模型可以分析用户的请求,然后决定调用哪个外部工具(函数) ,并生成符合函数参数的JSON格式数据。开发者再根据这个数据去真正执行函数。
-
为什么重要? 它将大模型的“大脑”(推理和决策能力)与外部世界的“手脚”(工具和API)连接起来,极大地扩展了应用边界。
-
工作流程:
- 你告诉模型有哪些函数可用(包括函数名、描述、参数)。
- 用户提出请求,如“今天北京的天气怎么样?”
- 模型理解后,不会直接回答天气,而是输出:
{"name": "get_weather", "arguments": {"location": "北京"}}。 - 你的程序收到这个调用信息,去执行真正的
get_weather函数(比如调用天气API)。 - 将API返回的真实天气数据再交给模型,让模型组织成自然语言回复给用户。
3. RAG
-
它是什么? RAG的全称是检索增强生成。它解决了大模型的两个核心痛点:知识滞后和产生“幻觉”(胡编乱造)。
-
核心思想: 在向大模型提问之前,先从外部知识库(如你的公司文档、产品手册、数据库)中检索出与问题最相关的信息,然后将这些信息作为上下文和问题一起交给大模型,让它基于这些已知为真的信息来生成答案。
-
工作流程:
- 加载: 将你的私有文档切块、向量化,存入向量数据库。
- 检索: 当用户提问时,将问题也向量化,并在向量数据库中搜索最相关的文档片段。
- 增强: 将检索到的文档片段作为上下文,和原始问题一起组合成一个新的、信息更丰富的提示词。
- 生成: 大模型基于这个增强后的提示词生成最终答案。
-
举例: 基于公司最新的内部财务制度,构建一个问答机器人。RAG可以确保机器人的回答严格基于你提供的制度文档,而不是模型在训练时学到的泛泛知识。
4. Agent 框架
-
它是什么? Agent(智能体)是一个更高级的概念。它不仅仅是被动地响应一个请求,而是具备自主规划、执行和反思能力的系统。它把上述所有技术(Prompt Engineering, Function Calling, RAG)整合在一起,像一个“自动驾驶”的AI助手。
-
核心思想: Agent拥有一个“大脑”(通常是LLM),它会“思考”:为了完成一个复杂目标,我需要先做什么,再做什么?如果失败了怎么办?
-
关键组件:
- 规划: 将大目标分解为小步骤。
- 工具使用: 知道在什么步骤调用什么函数(Function Calling)。
- 记忆: 记住之前的步骤和结果。
-
一些框架:
- LangChain / LlamaIndex: 是目前最流行的Agent和应用框架之一,提供了构建RAG、Agent所需的标准化组件和链,极大地简化了开发流程。
- AutoGen: 由微软推出,专注于打造能多智能体协作 的应用。多个拥有不同角色和能力的Agent可以相互对话、讨论、协作,共同解决复杂问题。
- Dify / LangFlow: 更偏向于低代码/可视化 平台,让你可以通过拖拽和配置的方式,快速构建和部署基于大模型的应用,降低了开发门槛。
总结
- 从0到1构建一个AI应用:使用 LangChain 或 Dify 快速搭建原型。
- 让AI使用工具:通过 Function Calling,让AI帮你订机票、查数据。
- 打造专业领域的知识助手:通过 RAG,为企业构建基于内部知识的客服、培训或咨询系统。
- 开发自主的AI员工:通过 Agent 框架,创建一个能自动完成复杂工作流(如:分析数据、生成报告、发送邮件)的智能体。