黑马-AI大模型三期(完结)

0 阅读6分钟

黑马-AI大模型三期(完结)---xingkeit.top/15145/

人工智能的浪潮正以前所未有的速度重塑世界,而大语言模型(LLM)无疑是这场变革的核心引擎。黑马 AI 大模型三期实战课程,正是一条从入门到精通的完整路径,引领我们穿越从精准提问到多模态智能应用的广阔疆域。

第一站:Prompt 工程的艺术——与模型对话的“语法”

一切始于 Prompt。Prompt 工程是与大模型沟通的基石,它不仅是简单的提问,更是一门精确引导模型思维的“语言艺术”。

核心思想:  将模型视为一个充满智慧但需要引导的实习生。你的指令越清晰、上下文越完整,它给出的答案就越精准。

实战技巧:

  1. 角色扮演:  让模型“进入角色”,是激发其专业能力的捷径。

    python

    复制下载

    # 一个简单的角色扮演 Prompt 示例
    prompt = """
    你是一位拥有10年经验的市场营销总监,请为我们的新产品“智能咖啡杯”撰写一段吸引年轻人的社交媒体文案。
    要求:风格活泼,突出产品卖点(恒温、记录饮水量),并带有号召性用语。
    """
    

    通过赋予角色,模型会自动调用与“市场营销总监”相关的知识和语气。

  2. 结构化思维:  使用分隔符(如 ```, ``,---`)清晰划分指令、上下文和输出要求,避免模型混淆。

  3. 少样本学习:  提供1-2个输入-输出的例子,让模型快速掌握任务模式和风格。

少量代码:  在实际调用 API 时,我们会将上述自然语言 Prompt 封装成消息列表。

python

复制下载

# 以 OpenAI API 为例的 Prompt 结构化封装
messages = [
    {"role": "system", "content": "你是一位专业的市场营销总监。"}, # 系统设定角色
    {"role": "user", "content": "为新产品‘智能咖啡杯’写一段面向年轻人的社交媒体文案。"}
]
# 然后将 messages 发送给大模型 API

第二站:Function Calling——大模型与现实世界的连接器

大模型本身活在数字世界,如何让它操作数据库、查询天气、发送邮件?Function Calling(函数调用)解决了这个难题。

核心思想:  模型不直接执行代码,而是根据你的请求和预定义的函数“工具箱”,智能地分析出应该调用哪个函数、参数是什么,并返回一个结构化的调用请求。真正的执行则由你的代码来完成。

实战流程:

  1. 定义工具:  用 JSON Schema 清晰描述函数的名称、描述和参数。
  2. 模型决策:  将用户请求和工具定义一起发送给模型,模型会判断是否需要调用函数,并返回一个包含函数名和参数的 JSON 对象。
  3. 本地执行:  你的程序解析这个 JSON,并调用本地相应的函数。
  4. 结果反馈:  将函数执行结果返回给模型,让它生成最终的用户回复。

少量代码:

python

复制下载

# 1. 定义一个获取天气的函数
def get_weather(location: str):
    # 这里是调用真实天气API的代码
    return f"{location}的天气是晴,25摄氏度。"

# 2. 将函数描述作为工具提供给模型
tools = [
    {
        "type": "function",
        "function": {
            "name": "get_weather",
            "description": "根据城市名称获取当前天气",
            "parameters": {
                "type": "object",
                "properties": {
                    "location": {"type": "string", "description": "城市名称"}
                },
                "required": ["location"]
            }
        }
    }
]

# 假设模型的响应是:{"name": "get_weather", "arguments": {"location": "北京"}}
# 3. 我们的代码执行这个函数
result = get_weather("北京")
# 4. 将结果 result 再送回模型,让模型组织成自然语言回答,如:“北京现在的天气很好,是晴天,25度。”

通过 Function Calling,大模型成为了一个强大的“大脑”,能够指挥我们的代码“四肢”去完成现实任务。

第三站:RAG——为模型注入专属知识与记忆

大模型的通用知识广博,但对于非公开的、私域的、实时更新的信息却无能为力。RAG(检索增强生成)技术应运而生。

核心思想:  就像学生在考试前先翻阅参考书一样,RAG 先将用户问题在一个专属知识库(如公司文档、产品手册)中进行快速检索,找到最相关的信息片段,然后将这些片段作为上下文连同问题一起交给模型,让模型做出“有据可依”的回答。

实战流程:

  1. 知识库预处理:  将原始文档切块,并通过嵌入模型转换为向量,存入向量数据库。
  2. 实时检索:  当用户提问时,将问题同样转换为向量,并在向量数据库中搜索最相似的文本块。
  3. 增强生成:  将检索到的文本块作为上下文,与原始问题组合成一个新的、信息更丰富的 Prompt,发送给大模型生成最终答案。

第四站:多模态应用——开启“全能助理”新时代

课程的终点站,也是目前 AI 应用最前沿的领域——多模态。大模型不再只处理文字,而是能“看懂”图片、“听懂”声音,成为一个真正的全能助理。

核心应用:

  • 视觉理解:  上传一张图片,模型可以描述其内容、解读其中的文字、分析其风格。

    • 示例 Prompt:  “分析这张图表,总结其核心趋势,并用表格形式列出关键数据。”
  • 文档问答:  直接上传 PDF、PPT、Word 等文件,模型能直接读取其中的文字和结构信息并回答问题。

  • 文生图与图生文:  与扩散模型结合,实现从创意文案到图片的生成,或对已有图片进行创意性解读。

少量代码:

python

复制下载

# 以多模态模型为例,消息体中可包含图像 URL 或 Base64 编码
multimodal_messages = [
    {
        "role": "user",
        "content": [
            {"type": "text", "text": "请描述这张图片中的主要物体和场景。"},
            {
                "type": "image_url",
                "image_url": {
                    "url": "https://example.com/cat_on_sofa.jpg"
                }
            }
        ]
    }
]
# 模型可能会回复:“图片中一只橘猫正慵懒地躺在沙发上,阳光透过窗户照在它身上。”

结语

黑马的三期实战课程,构建了一条清晰的进阶之路:从 Prompt 工程(学会沟通)到 Function Calling(连接现实),再到 RAG(赋予专长),最终抵达 多模态应用(融合感知)。这不仅是技术的叠加,更是思维模式的升级——从“使用者”变为“创造者”,学会将大模型这一强大工具,无缝嵌入到我们解决实际问题的流程中,最终释放出前所未有的生产力与创造力。