大模型微调:概念、技术与实践指南

0 阅读12分钟

1. 大模型微调概述

1.1 什么是大模型微调

大模型微调(Fine-tuning)是指在一个预训练好的大型语言模型(如GPT、BERT等)基础上,使用特定领域或任务的数据集进行额外训练,使模型适应特定任务的过程。与从零开始训练相比,微调能够利用预训练模型已经学习到的通用语言表示,只需相对较少的数据和计算资源就能获得良好的性能。

1.2 微调的必要性

尽管现代大语言模型(LLM)在预训练阶段已经学习了丰富的语言知识,但在特定场景下仍需要微调:

  1. 领域适应:使通用模型适应医疗、法律、金融等专业领域
  2. 任务定制:针对特定任务(如文本分类、问答、摘要等)优化模型
  3. 风格调整:调整生成内容的风格、语气或格式
  4. 性能提升:在特定指标上超越零样本或少样本学习的效果

1.3 微调的主要类型

  1. 全参数微调(Full Fine-tuning):更新模型所有权重参数
  2. 参数高效微调(Parameter-Efficient Fine-tuning, PEFT)
    • LoRA(Low-Rank Adaptation,低秩自适应)
    • 适配器(Adapter)
    • 前缀微调(Prefix Tuning)
    • 提示微调(Prompt Tuning)
  3. 指令微调(Instruction Fine-tuning):针对指令遵循能力进行优化

2. 微调技术详解

2.1 全参数微调(Full Fine-tuning)

全参数微调是最直接的微调方法,允许所有模型参数在微调过程中更新。这种方法通常能获得最佳性能,但也需要最多的计算资源。

技术特点:

  • 更新基础模型的所有参数
  • 需要相对较大的数据集(通常数千到数万样本)
  • 计算成本高,需要强大的GPU资源
  • 存在灾难性遗忘的风险

2.2 参数高效微调技术(PEFT)

2.2.1 LoRA(Low-Rank Adaptation)

LoRA通过低秩分解来减少可训练参数数量,其核心思想是:权重变化 ΔWΔW 可以分解为两个小矩阵的乘积(ΔW=BAΔW = BA),其中 BRd×rARr×krmin(d,k)B∈ℝ^{d×r},A∈ℝ^{r×k},r≪min(d,k)

优势

  • 显著减少可训练参数(通常减少90%以上)
  • 保持原始模型权重不变,易于切换任务
  • 训练后可将LoRA权重合并到基础模型中,不增加推理延迟

2.2.2 适配器(Adapter)

在Transformer层中插入小型全连接网络,仅训练这些适配器层而冻结原始模型参数。

2.2.3 前缀微调(Prefix Tuning)

在输入序列前添加可训练的任务特定前缀向量,引导模型生成期望的输出。

2.3 指令微调

指令微调旨在增强模型理解和遵循人类指令的能力。通过使用(指令,输入,输出)三元组数据集进行训练,使模型能够更好地泛化到未见过的任务。

关键点

  • 使用多样化的任务和指令
  • 强调任务描述的清晰表达
  • 有助于模型的零样本泛化能力

3. 微调实践指南

我们把轻量级的开源中文生成模型 uer/gpt2-chinese-cluecorpussmall 微调成一个可进行中文对话的问答模型。

3.1 准备工作

Colab 免费版:

  • GPU:NVIDIA T4(16GB 显存)
  • 可运行 QLoRA 微调 DeepSeek-1.3B
  • 内存:12GB RAM
  • 存储:至少 5GB 空闲空间(用于模型缓存)

2025-06-19 15 26 36.png

软件环境:

# 基础环境配置
pip install torch transformers datasets accelerate

3.2 数据集准备

我们使用LLM生成训练数据,格式如下:

# train_data.py

chat_data = [
    {"text": "<user>如何选择护色剂?</user><bot>考虑种类、安全性和使用量。</bot>"},
    {"text": "<user>什么是UMAP?</user><bot>统一流形逼近与投影,降维方法。</bot>"},
    {"text": "<user>怎样学习银河摄影?</user><bot>从无月夜开始,学习广角构图,多实践。</bot>"},
    {"text": "<user>如何选择漂白剂?</user><bot>考虑种类、安全性和使用量。</bot>"},
    {"text": "<user>什么是自动编码器?</user><bot>通过压缩再重建实现降维的神经网络。</bot>"},
    {"text": "<user>怎样学习星野摄影?</user><bot>从简单地景开始,学习天地结合,多实践。</bot>"},
    {"text": "<user>如何选择酶制剂?</user><bot>考虑种类、活性和使用量。</bot>"},
    {"text": "<user>什么是聚类分析?</user><bot>将数据分组为相似集合的无监督学习。</bot>"},
    {"text": "<user>怎样学习延时摄影?</user><bot>从短间隔开始,学习后期合成,多实践。</bot>"},
    {"text": "<user>如何选择增味剂?</user><bot>考虑种类、安全性和使用量。</bot>"},
    {"text": "<user>什么是K-means?</user><bot>基于距离的经典聚类算法。</bot>"},
    {"text": "<user>怎样学习缩时摄影?</user><bot>从简单主体开始,学习间隔设置,多实践。</bot>"},
    ...
]

3.3 全参数微调示例

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, Trainer, TrainingArguments
from transformers import DataCollatorForLanguageModeling
from datasets import Dataset

from train_data import chat_data

# ----------------------------
# 1. 自动检测设备 (GPU 优先,否则 CPU)
# ----------------------------
device = "cuda" if torch.cuda.is_available() else "cpu"
print(f"当前设备:{device}")

# ----------------------------
# 2. 加载模型和分词器
# ----------------------------
model_name = "uer/gpt2-chinese-cluecorpussmall"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name).to(device)

# ----------------------------
# 3. 添加特殊token,扩充词表
# ----------------------------
special_tokens_dict = {
    "pad_token": "<pad>",
    "bos_token": "<s>",
    "eos_token": "</s>",
    "additional_special_tokens": ["<user>", "</user>", "<bot>", "</bot>"]
}
tokenizer.add_special_tokens(special_tokens_dict)
tokenizer.pad_token = tokenizer.eos_token
model.resize_token_embeddings(len(tokenizer))
  1. 看看微调之前
# ------------------------------------------------------------------
# 调用你微调后的中文 GPT 模型,根据用户输入的提示(prompt)生成对话回复
# ------------------------------------------------------------------
def chat(prompt, max_new_tokens=50):
    device = "cuda" if torch.cuda.is_available() else "cpu"
    inputs = tokenizer(prompt, return_tensors="pt").to(device)
    outputs = model.generate(
        inputs["input_ids"],
        max_new_tokens=max_new_tokens,
        eos_token_id=tokenizer.convert_tokens_to_ids("</bot>"),
        pad_token_id=tokenizer.pad_token_id,
        do_sample=False,  # 贪心解码,最保守
    )
    return tokenizer.decode(outputs[0], skip_special_tokens=True)


prompt = "<user>如何选择茶具?</user><bot>"
chat(prompt)

2025-06-27 17 29 03.png

  1. 准备数据和设置参数
# ----------------------------
# 4. 使用 Dataset 加载数据
# ----------------------------
dataset = Dataset.from_list(chat_data)


# ----------------------------
# 5. 分词和标签处理,确保padding和truncation
# ----------------------------
def tokenize_function(example):
    encoding = tokenizer(
        example["text"],
        truncation=True,
        padding="max_length",
        max_length=512
    )
    encoding["labels"] = encoding["input_ids"].copy()
    return encoding


tokenized_dataset = dataset.map(tokenize_function)

# ----------------------------
# 6. 数据整理器,自动对齐输入和标签
# ----------------------------
data_collator = DataCollatorForLanguageModeling(tokenizer=tokenizer, mlm=False)

# ----------------------------
# 7. 训练参数设置
# ----------------------------
training_args = TrainingArguments(
    output_dir="./chatgpt2-chinese",
    overwrite_output_dir=True,
    num_train_epochs=3,
    per_device_train_batch_size=4,
    save_steps=500,
    save_total_limit=2,
    logging_steps=50,
    fp16=True if device == "cuda" else False,  # 仅GPU时启用混合精度
    report_to="none"
)

# ----------------------------
# 8. Trainer 初始化
# ----------------------------
trainer = Trainer(
    model=model,
    args=training_args,
    train_dataset=tokenized_dataset,
    data_collator=data_collator,
)
  1. 开始微调
# ----------------------------
# 9. 启动训练
# ----------------------------
trainer.train()

# ----------------------------
# 10. 保存模型和分词器
# ----------------------------
trainer.save_model("./chatgpt2-chinese")
tokenizer.save_pretrained("./chatgpt2-chinese")

2025-06-27 17 34 21.png

2025-06-27 17 35 40.png

  1. 看看微调效果

2025-06-27 17 36 52.png

3.4 LoRA微调示例

  1. 环境依赖及支持
pip install transformers datasets peft accelerate
# utils.py

chat_data = [
    {"text": "<user>你好</user><bot>你好!请问有什么可以帮您?</bot>"},
    {"text": "<user>你是谁?</user><bot>我是一个由GPT模型训练的中文智能助手。</bot>"},
    {"text": "<user>你能做什么?</user><bot>我可以回答问题、写作、翻译和聊天。</bot>"},
    {"text": "<user>今天天气怎么样?</user><bot>抱歉,我无法查询实时天气,建议查看天气预报网站。</bot>"},
    {"text": "<user>讲个笑话</user><bot>为什么程序员喜欢下雨天?因为可以在家 debug!</bot>"},
    ...
]

# ------------------------------------------------------------------
# 调用你微调后的中文 GPT 模型,根据用户输入的提示(prompt)生成对话回复
# ------------------------------------------------------------------
def chat(model, tokenizer, prompt, max_new_tokens=50):
    device = "cuda" if torch.cuda.is_available() else "cpu"
    inputs = tokenizer(prompt, return_tensors="pt").to(device)
    outputs = model.generate(
        inputs["input_ids"],
        max_new_tokens=max_new_tokens,
        eos_token_id=tokenizer.convert_tokens_to_ids("</bot>"),
        pad_token_id=tokenizer.pad_token_id,
        do_sample=False,  # 贪心解码,最保守
    )
    return tokenizer.decode(outputs[0], skip_special_tokens=True)
import torch
from transformers import (
    AutoModelForCausalLM,
    AutoTokenizer,
    TrainingArguments,
    Trainer,
    DataCollatorForLanguageModeling,
)
from datasets import Dataset
from peft import get_peft_model, LoraConfig, TaskType

from utils import chat_data, chat
  1. 加载模型
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

# 1. 加载预训练模型和分词器
model_name = "uer/gpt2-chinese-cluecorpussmall"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name).to(device)

2025-07-01 14 45 17.png

微调前效果:

2025-07-01 15 04 23.png

  1. 处理训练数据
# 4. 加载聊天语料,每行为一组完整的用户-助手对话
# 将 chat_data 转换为 Hugging Face Dataset 格式
dataset = Dataset.from_list(chat_data)


# 5. 将对话文本转换为模型输入格式(带标签input_ids)
def tokenize(example):
    encoding = tokenizer(
        example["text"],
        padding="max_length",
        truncation=True,
        max_length=512
    )
    encoding["labels"] = encoding["input_ids"].copy()
    return encoding


# 批处理分词 + 去除原始字段
tokenized_dataset = dataset.map(tokenize, batched=True, remove_columns=["text"])

# 6. 创建数据整理器(自动padding、生成labels等)
data_collator = DataCollatorForLanguageModeling(
    tokenizer=tokenizer,
    mlm=False  # GPT是自回归模型,不使用掩码语言建模
)

2025-07-01 15 28 01.png

  1. 设置训练参数
# 7. 设置训练参数
training_args = TrainingArguments(
    output_dir="./chatgpt2-lora",  # 输出路径
    per_device_train_batch_size=4,  # 单卡batch size
    num_train_epochs=3,  # 训练轮次
    save_steps=500,  # 每500步保存一次模型
    save_total_limit=2,  # 最多保留2个checkpoint
    logging_steps=50,  # 每50步打印日志
    report_to="none",  # 不使用wandb等日志平台
    fp16=True  # 使用半精度训练以节省显存
)

# 8. 启动Trainer进行LoRA训练
trainer = Trainer(
    model=model,
    args=training_args,
    train_dataset=tokenized_dataset,
    data_collator=data_collator,
)
  1. 进行微调训练
trainer.train()

2025-07-01 15 33 57.png

看看微调效果:

2025-07-01 15 35 33.png

  1. 保存训练参数
# 9. 保存LoRA适配器权重(不是完整模型)和tokenizer
model.save_pretrained("./chatgpt2-lora")
tokenizer.save_pretrained("./chatgpt2-lora")

2025-07-01 15 36 48.png

3.5 指令微调示例

# utils.py

def chat_instruction(tokenizer, model, instruction, input_text=""):
    """
    简单预测函数
    """
    device = "cuda" if torch.cuda.is_available() else "cpu"
    prompt = f"<s>指令:{instruction}\n输入:{input_text}\n输出:" if input_text else f"<s>指令:{instruction}\n输出:"
    inputs = tokenizer(prompt, return_tensors="pt").to(device)
    outputs = model.generate(
        inputs["input_ids"],
        max_new_tokens=100,
        do_sample=True,
        temperature=0.7,
        top_p=0.9,
        pad_token_id=tokenizer.pad_token_id,
        eos_token_id=tokenizer.eos_token_id
    )
    return tokenizer.decode(outputs[0], skip_special_tokens=True)
import torch
from transformers import (
    AutoModelForCausalLM,
    AutoTokenizer,
    TrainingArguments,
    Trainer,
    DataCollatorForLanguageModeling,
)
from peft import get_peft_model, LoraConfig, TaskType
from datasets import Dataset

from utils import chat_instruction

# 1. 设置设备
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

# 2. 加载模型和分词器
model_name = "uer/gpt2-chinese-cluecorpussmall"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name).to(device)

微调前:

chat_instruction(tokenizer, model, "介绍你自己")

2025-07-03 10 56 19.png

# 3. 添加特殊 token
special_tokens = {
    "pad_token": "<pad>",
    "bos_token": "<s>",
    "eos_token": "</s>"
}
tokenizer.add_special_tokens(special_tokens)
tokenizer.pad_token = tokenizer.eos_token
model.resize_token_embeddings(len(tokenizer))

# 4. 配置 LoRA 参数
lora_config = LoraConfig(
    r=8,
    lora_alpha=32,
    target_modules=["c_attn", "c_proj"],
    lora_dropout=0.1,
    bias="none",
    task_type=TaskType.CAUSAL_LM
)
model = get_peft_model(model, lora_config).to(device)

# 5. 准备指令微调数据
chat_data = [
    {
        "instruction": "介绍你自己",
        "input": "",
        "output": "我是一个由 GPT 模型训练的中文智能助手,可以回答问题、写作、翻译和聊天等。"
    },
    {
        "instruction": "写一首关于春天的诗",
        "input": "",
        "output": "春风拂面百花开,柳绿莺啼燕归来。暖阳轻洒江南岸,山水悠悠入梦来。"
    },
    {
        "instruction": "将下面这句话翻译成英文",
        "input": "人生如逆旅,我亦是行人。",
        "output": "Life is like a journey against the current; I am just a traveler."
    },
    {
        "instruction": "讲一个冷笑话",
        "input": "",
        "output": "为什么程序员下雨天不带伞?因为他喜欢在云端工作。"
    },
    {
        "instruction": "什么是机器学习?",
        "input": "",
        "output": "机器学习是人工智能的一个分支,它让计算机通过数据自动学习规律,从而完成任务。"
    },
    {
        "instruction": "用Python写一个计算斐波那契数列的函数",
        "input": "",
        "output": "```python\ndef fib(n):\n    if n <= 1:\n        return n\n    return fib(n-1) + fib(n-2)\n```"
    },
    {
        "instruction": "写一段关于月亮的文案",
        "input": "",
        "output": "夜幕降临,月色如水。那轮皎洁的明月,像是一只温柔的眼睛,静静注视着人间的悲欢离合。"
    },
    {
        "instruction": "解释一下牛顿第一定律",
        "input": "",
        "output": "牛顿第一定律指出,物体在不受外力作用时,将保持静止状态或匀速直线运动状态。"
    },
    {
        "instruction": "推荐一本适合入门AI的书籍",
        "input": "",
        "output": "《机器学习实战》是一本适合 AI 入门者的经典书籍,内容通俗易懂,配有丰富代码示例。"
    },
    {
        "instruction": "将下面句子改写得更有文采",
        "input": "我喜欢看日出。",
        "output": "我痴迷于朝阳初升的那一刻,金光洒满天际,仿佛万物皆被唤醒。"
    }
]


# 6. 构造统一的 prompt 文本
def format_prompt(example):
    if example["input"]:
        return f"<s>指令:{example['instruction']}\n输入:{example['input']}\n输出:{example['output']}</s>"
    else:
        return f"<s>指令:{example['instruction']}\n输出:{example['output']}</s>"


for sample in chat_data:
    sample["text"] = format_prompt(sample)

# 7. 转换为 HF Dataset,并分词
dataset = Dataset.from_list(chat_data)


def tokenize(example):
    encoding = tokenizer(
        example["text"],
        truncation=True,
        padding="max_length",
        max_length=512,
    )
    encoding["labels"] = encoding["input_ids"].copy()
    return encoding


tokenized_dataset = dataset.map(tokenize, remove_columns=dataset.column_names)

# 8. 创建训练配置
training_args = TrainingArguments(
    output_dir="./gpt2-chinese-instruction-lora",
    per_device_train_batch_size=4,
    num_train_epochs=3,
    save_steps=500,
    logging_steps=50,
    fp16=torch.cuda.is_available(),
    report_to="none",
    save_total_limit=2,
)

data_collator = DataCollatorForLanguageModeling(
    tokenizer=tokenizer,
    mlm=False
)

trainer = Trainer(
    model=model,
    args=training_args,
    train_dataset=tokenized_dataset,
    data_collator=data_collator,
)

# 9. 启动训练
trainer.train()

# 10. 保存模型和分词器
model.save_pretrained("./gpt2-chinese-instruction-lora")
tokenizer.save_pretrained("./gpt2-chinese-instruction-lora")

看看微调效果:

2025-07-03 11 00 02.png

4. 微调优化策略

4.1 学习率调度

training_args = TrainingArguments(
    learning_rate=5e-5,
    lr_scheduler_type="cosine",  # 余弦退火
    warmup_steps=500,           # 预热步数
)

4.2 混合精度训练

training_args = TrainingArguments(
    fp16=True,  # 使用16位浮点数
    # 或
    bf16=True,  # 在支持bfloat16的硬件上
)

4.3 梯度累积

training_args = TrainingArguments(
    per_device_train_batch_size=4,
    gradient_accumulation_steps=4,  # 实际batch_size=16
)

4.4 模型量化(QLoRA)

from transformers import BitsAndBytesConfig
import torch

# 4位量化配置
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=torch.bfloat16,
    bnb_4bit_use_double_quant=True,
)

# 加载量化模型
model = AutoModelForCausalLM.from_pretrained(
    "bigscience/bloom-560m",
    quantization_config=bnb_config,
    device_map="auto"
)

# 然后应用LoRA等PEFT方法

5. 微调后的评估与部署

5.1 模型评估

# 使用Trainer内置评估
trainer.evaluate()

# 或自定义评估函数
from sklearn.metrics import accuracy_score

def compute_metrics(eval_pred):
    logits, labels = eval_pred
    predictions = np.argmax(logits, axis=-1)
    return {"accuracy": accuracy_score(labels, predictions)}

5.2 模型保存与加载

# 保存全模型
model.save_pretrained("./full_model")
tokenizer.save_pretrained("./full_model")

# 保存PEFT适配器
peft_model.save_pretrained("./adapter")

# 加载
from peft import PeftModel

base_model = AutoModelForCausalLM.from_pretrained("bigscience/bloom-560m")
peft_model = PeftModel.from_pretrained(base_model, "./adapter")

5.3 模型合并(LoRA)

# 将LoRA权重合并到基础模型中
merged_model = peft_model.merge_and_unload()
merged_model.save_pretrained("./merged_model")

6. 微调中的常见问题与解决方案

6.1 过拟合

解决方案

  • 增加数据集规模
  • 使用更强的正则化(如权重衰减、dropout)
  • 早停(Early Stopping)
  • 减少训练epoch数

6.2 灾难性遗忘

解决方案

  • 使用较小的学习率(通常1e-5到5e-5)
  • 混合通用数据和任务特定数据
  • 采用参数高效微调方法(如LoRA)

6.3 显存不足

解决方案

  • 使用梯度累积
  • 采用混合精度训练
  • 应用模型量化(如QLoRA)
  • 使用参数高效微调方法
  • 启用梯度检查点
model.gradient_checkpointing_enable()

7. 前沿发展与未来方向

  1. QLoRA:将4位量化与LoRA结合的更高效微调方法
  2. Delta-tuning:仅微调模型的部分"delta"参数
  3. 稀疏微调:选择性地微调模型的部分参数
  4. 多任务联合微调:同时学习多个相关任务
  5. 持续学习:在不遗忘旧任务的情况下学习新任务

结语

大模型微调是将通用语言模型适配到特定任务的关键技术。随着参数高效微调技术的发展,现在即使是资源有限的研究者和开发者也能有效地定制大语言模型。选择何种微调方法取决于具体任务、数据规模和可用资源。在实践中,建议从LoRA等PEFT方法开始,逐步探索更复杂的微调策略。

通过本文介绍的概念、技术和代码示例,读者应能够开始自己的大模型微调实践,并根据具体需求进行调整和优化。