黑马-AI大模型三期(完结)---xingkeit.top/15145/
人工智能的浪潮正以前所未有的速度重塑世界,而大语言模型(LLM)无疑是这场变革的核心引擎。黑马 AI 大模型三期实战课程,正是一条从入门到精通的完整路径,引领我们穿越从精准提问到多模态智能应用的广阔疆域。
第一站:Prompt 工程的艺术——与模型对话的“语法”
一切始于 Prompt。Prompt 工程是与大模型沟通的基石,它不仅是简单的提问,更是一门精确引导模型思维的“语言艺术”。
核心思想: 将模型视为一个充满智慧但需要引导的实习生。你的指令越清晰、上下文越完整,它给出的答案就越精准。
实战技巧:
-
角色扮演: 让模型“进入角色”,是激发其专业能力的捷径。
python
复制下载
# 一个简单的角色扮演 Prompt 示例 prompt = """ 你是一位拥有10年经验的市场营销总监,请为我们的新产品“智能咖啡杯”撰写一段吸引年轻人的社交媒体文案。 要求:风格活泼,突出产品卖点(恒温、记录饮水量),并带有号召性用语。 """通过赋予角色,模型会自动调用与“市场营销总监”相关的知识和语气。
-
结构化思维: 使用分隔符(如 ```,
``,---`)清晰划分指令、上下文和输出要求,避免模型混淆。 -
少样本学习: 提供1-2个输入-输出的例子,让模型快速掌握任务模式和风格。
少量代码: 在实际调用 API 时,我们会将上述自然语言 Prompt 封装成消息列表。
python
复制下载
# 以 OpenAI API 为例的 Prompt 结构化封装
messages = [
{"role": "system", "content": "你是一位专业的市场营销总监。"}, # 系统设定角色
{"role": "user", "content": "为新产品‘智能咖啡杯’写一段面向年轻人的社交媒体文案。"}
]
# 然后将 messages 发送给大模型 API
第二站:Function Calling——大模型与现实世界的连接器
大模型本身活在数字世界,如何让它操作数据库、查询天气、发送邮件?Function Calling(函数调用)解决了这个难题。
核心思想: 模型不直接执行代码,而是根据你的请求和预定义的函数“工具箱”,智能地分析出应该调用哪个函数、参数是什么,并返回一个结构化的调用请求。真正的执行则由你的代码来完成。
实战流程:
- 定义工具: 用 JSON Schema 清晰描述函数的名称、描述和参数。
- 模型决策: 将用户请求和工具定义一起发送给模型,模型会判断是否需要调用函数,并返回一个包含函数名和参数的 JSON 对象。
- 本地执行: 你的程序解析这个 JSON,并调用本地相应的函数。
- 结果反馈: 将函数执行结果返回给模型,让它生成最终的用户回复。
少量代码:
python
复制下载
# 1. 定义一个获取天气的函数
def get_weather(location: str):
# 这里是调用真实天气API的代码
return f"{location}的天气是晴,25摄氏度。"
# 2. 将函数描述作为工具提供给模型
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "根据城市名称获取当前天气",
"parameters": {
"type": "object",
"properties": {
"location": {"type": "string", "description": "城市名称"}
},
"required": ["location"]
}
}
}
]
# 假设模型的响应是:{"name": "get_weather", "arguments": {"location": "北京"}}
# 3. 我们的代码执行这个函数
result = get_weather("北京")
# 4. 将结果 result 再送回模型,让模型组织成自然语言回答,如:“北京现在的天气很好,是晴天,25度。”
通过 Function Calling,大模型成为了一个强大的“大脑”,能够指挥我们的代码“四肢”去完成现实任务。
第三站:RAG——为模型注入专属知识与记忆
大模型的通用知识广博,但对于非公开的、私域的、实时更新的信息却无能为力。RAG(检索增强生成)技术应运而生。
核心思想: 就像学生在考试前先翻阅参考书一样,RAG 先将用户问题在一个专属知识库(如公司文档、产品手册)中进行快速检索,找到最相关的信息片段,然后将这些片段作为上下文连同问题一起交给模型,让模型做出“有据可依”的回答。
实战流程:
- 知识库预处理: 将原始文档切块,并通过嵌入模型转换为向量,存入向量数据库。
- 实时检索: 当用户提问时,将问题同样转换为向量,并在向量数据库中搜索最相似的文本块。
- 增强生成: 将检索到的文本块作为上下文,与原始问题组合成一个新的、信息更丰富的 Prompt,发送给大模型生成最终答案。
第四站:多模态应用——开启“全能助理”新时代
课程的终点站,也是目前 AI 应用最前沿的领域——多模态。大模型不再只处理文字,而是能“看懂”图片、“听懂”声音,成为一个真正的全能助理。
核心应用:
-
视觉理解: 上传一张图片,模型可以描述其内容、解读其中的文字、分析其风格。
- 示例 Prompt: “分析这张图表,总结其核心趋势,并用表格形式列出关键数据。”
-
文档问答: 直接上传 PDF、PPT、Word 等文件,模型能直接读取其中的文字和结构信息并回答问题。
-
文生图与图生文: 与扩散模型结合,实现从创意文案到图片的生成,或对已有图片进行创意性解读。
少量代码:
python
复制下载
# 以多模态模型为例,消息体中可包含图像 URL 或 Base64 编码
multimodal_messages = [
{
"role": "user",
"content": [
{"type": "text", "text": "请描述这张图片中的主要物体和场景。"},
{
"type": "image_url",
"image_url": {
"url": "https://example.com/cat_on_sofa.jpg"
}
}
]
}
]
# 模型可能会回复:“图片中一只橘猫正慵懒地躺在沙发上,阳光透过窗户照在它身上。”
结语
黑马的三期实战课程,构建了一条清晰的进阶之路:从 Prompt 工程(学会沟通)到 Function Calling(连接现实),再到 RAG(赋予专长),最终抵达 多模态应用(融合感知)。这不仅是技术的叠加,更是思维模式的升级——从“使用者”变为“创造者”,学会将大模型这一强大工具,无缝嵌入到我们解决实际问题的流程中,最终释放出前所未有的生产力与创造力。