用30行Python和NVIDIA nvCOMP降低检查点成本

4 阅读4分钟

用约30行Python和NVIDIA nvCOMP降低检查点成本

大语言模型训练需要周期性保存检查点(checkpoint)。这些包含模型权重、优化器状态和梯度的完整快照会被保存到存储系统中,以便训练在中断后能够恢复。在大规模训练中,这些检查点会变得非常庞大(70B模型达782GB),且保存频繁(每15-30分钟一次),成为训练预算中最大的开销之一。大多数AI团队追求GPU利用率、训练吞吐量和模型质量,却很少关注检查点带来的成本。

这是一个代价高昂的疏忽。在128个某机构Blackwell GPU上训练405B模型,仅同步检查点的开销每月就可高达20万美元。通过引入约30行Python代码实现的无损压缩步骤,每月可减少5.6万美元的存储成本。混合专家模型(MoE)节省更多。

单个检查点内部构成

在1000+ GPU规模下,硬件中断并不罕见。某机构报告在16384个某机构H100 GPU上训练Llama 3的54天中,发生了419次意外中断(约每3小时一次)。这就是大多数团队每15-30分钟检查一次的原因——这是承载训练的基础设施,而非可选开销。

组成部分大小内容
模型权重 (BF16)130 GB700亿参数 × 2字节
优化器状态 (FP32 动量+方差)521 GB700亿参数 × (4+4)字节
梯度 (BF16)130 GB与权重相同形状
每个检查点总计782 GB

优化器状态(AdamW的一阶和二阶矩估计,均以FP32存储)是模型权重的4倍大小,占据每个检查点的大部分空间,这也是检查点远大于部署模型的原因。

每30分钟检查一次(容错的标准做法),每天48个检查点。在持续训练的一个月内: 782 GB × 48/天 × 30天 = 每月写入存储1.13 PB

在每次同步检查点写入期间,所有8个GPU完全空闲。训练循环会阻塞,直到最后一个字节写入存储。

按每GPU每小时4.40美元(典型的按需Blackwell GPU云定价)和5 GB/s的共享存储吞吐量(InfiniBand上Lustre或GPFS的典型值)计算空闲GPU的等待成本:

  • 每个检查点写入时间:782 GB / 5 GB/s = 156.4秒(约2.6分钟)
  • 每月总等待时间:156.4秒 × 48/天 × 30天 = 225,216秒 = 62.6小时
  • 空闲GPU成本:62.6小时 × 8个GPU × $4.40/GPU/小时 = 每月2,203美元

扩展到64个GPU集群,月成本超过17,500美元。在128个GPU上训练405B模型,空闲成本超过每月20万美元。

某机构 nvCOMP 介绍:GPU加速压缩

核心思想很简单:在检查点离开GPU内存之前进行压缩。无需CPU往返,无需额外数据移动。数据已经在GPU上,就在那里压缩。

某机构 nvCOMP 是一个GPU加速的无损压缩库,正是为此设计。它提供单一库,同时支持Zstandard(ZSTD)等标准算法和gANS等高度优化的GPU专用格式,在设备上原生解决数据瓶颈。开发者可以轻松将高吞吐量压缩直接集成到Python工作流(如PyTorch或TensorFlow)中。

实测检查点压缩比

使用两种模型架构(稠密Transformer和混合专家)进行50步微调,保存完整训练检查点(权重 + AdamW优化器状态 + 梯度),并用nvCOMP在每个组件上压缩。

检查点组件检查点占比ZSTD压缩比gANS压缩比原因
BF16模型权重17%1.27-1.28×1.25-1.27×高熵训练后的浮点数
FP32优化器动量33%1.25-1.39×1.23-1.37×移动平均中共享指数字节
FP32优化器方差33%1.32-1.48×1.30-1.45×非负小数值
BF16梯度17%1.25-1.46×1.23-1.44×架构相关的稀疏性
稠密模型完整检查点100%~1.27×~1.25×稠密:无自然稀疏性
MoE模型完整检查点100%~1.40×~1.39×MoE:专家路由产生梯度稀疏性

压缩比取决于模型架构而非硬件。字节级编解码器(如LZ4)寻找重复的字节序列,但训练后的神经网络参数在字节级看起来是随机的,因此几乎压缩不了什么。ZSTD和ANS使用熵编码,利用字节值出现频率的统计模式——即使在精确序列不重复时也能压缩。

成本节省计算

以70B稠密模型、实测ZSTD 1.27倍压缩比为例:

  • 不使用nvCOMP:写入782 GB到磁盘,5 GB/s → 156秒GPU等待
  • 使用nvCOMP ZSTD (1.27倍):以~16 GB/s压缩782 GB(约49秒),写入616 GB到磁盘(123秒)→ 约123秒GPU等待

49秒的压缩时间消失是因为压缩和存储写入可以流水线化:一块数据写入磁盘时,下一块数据在GPU上压缩。只要编解码器压缩速度快于存储吸收输出数据的速度,压缩步骤就完全隐藏在写入过程之后——GPU等待时间仅等于写入时间。

在5 GB/s共享存储下,16 GB/s的ZSTD比写入快3倍,压缩完全重叠。等待时间从156秒降至123秒——文件缩小21%,每个检查点快33秒。每月:48 × 30 = 47,520秒更少的空闲时间——** reclaim了13+小时**。1.40倍压缩比的MoE更好:缩小29%,快44秒,reclaim 17+小时。

存储速度更快时的选择

存储速度取决于基础设施:共享网络文件系统(Lustre、GPFS、NFS)为2-10 GB/s,或GPUDirect Storage配合本地NVMe为15-50+ GB/s。

存储速度无压缩ZSTD (1.27×, ~16 GB/s)ANS (1.25×, ~181 GB/s)最佳选择
5 GB/s156秒123秒 (−21%)125秒 (−20%)ZSTD
15 GB/s52秒49秒 (−6%)42秒 (−20%)ANS
25 GB/s31秒49秒 (+57%) ⚠️25秒 (−20%)ANS

对于共享文件系统(5-10 GB/s),ZSTD是合适的默认选择。对于15+ GB/s的GDS/高性能存储,ANS是明确胜者。

稠密模型月节省(假设5 GB/s共享存储,存储$0.14/GB/月,保留96个检查点):

模型GPU数检查点大小ZSTD节省ANS节省
Llama 3 70B8× Blackwell782 GB~$2,700/月~$2,500/月
Llama 3 70B64× Blackwell782 GB~$6,000/月~$5,600/月
Llama 3 405B128× Blackwell4,529 GB~$56,000/月~$53,000/月

MoE模型月节省:

模型GPU数检查点大小ZSTD节省ANS节省
Mixtral 8x22B (141B)64× Blackwell1,575 GB~$16,000/月~$16,000/月
DeepSeek-V3 (671B)256× Blackwell7,490 GB~$222,000/月~$218,000/月

集成:约30行Python

# CUDA 13.x (Blackwell):
pip install nvidia-nvcomp-cu13 cupy-cuda13x
# CUDA 12.x (Hopper):
pip install nvidia-nvcomp-cu12 cupy-cuda12x

import torch
import cupy as cp
from nvidia import nvcomp

codec = nvcomp.Codec(algorithm="Zstd")  # 或 "ANS"

def _compress_state(obj):
    """递归压缩状态字典树中的GPU张量"""
    if isinstance(obj, torch.Tensor) and obj.is_cuda:
        flat = obj.contiguous().reshape(-1).view(torch.uint8)
        compressed = codec.encode(nvcomp.as_array(cp.from_dlpack(flat)))
        return {"__nvcomp__": True,
                "data": bytes(compressed.cpu()),
                "shape": list(obj.shape), "dtype": str(obj.dtype)}
    if isinstance(obj, dict):
        return {k: _compress_state(v) for k, v in obj.items()}
    if isinstance(obj, (list, tuple)):
        return type(obj)(_compress_state(v) for v in obj)
    return obj

def _decompress_state(obj, device):
    """递归解压回GPU"""
    if isinstance(obj, dict) and obj.get("__nvcomp__"):
        decompressed = codec.decode(obj["data"])
        dtype = getattr(torch, obj["dtype"].replace("torch.", ""))
        return torch.from_dlpack(cp.asarray(decompressed)).view(dtype).reshape(obj["shape"])
    if isinstance(obj, torch.Tensor):
        return obj.to(device)
    if isinstance(obj, dict):
        return {k: _decompress_state(v, device) for k, v in obj.items()}
    if isinstance(obj, (list, tuple)):
        return type(obj)(_decompress_state(v, device) for v in obj)
    return obj

def save_compressed_checkpoint(model, optimizer, path):
    state = {"model": model.state_dict(), "optimizer": optimizer.state_dict()}
    torch.save(_compress_state(state), path)

def load_compressed_checkpoint(path, device="cuda"):
    return _decompress_state(
        torch.load(path, map_location="cpu", weights_only=True), device)

torch.save 替换为 save_compressed_checkpointtorch.load 替换为 load_compressed_checkpoint 即可。无需更改训练循环、模型代码或优化器配置。

某机构 Blackwell 解压缩引擎

某机构 Blackwell GPU 包含专用的Blackwell解压缩引擎,可无需SM开销以高达280 GB/s的速度解压LZ4、Snappy和Deflate。但字节级编解码器在浮点张量上仅能达到约1.00倍的压缩比。对于检查点压缩,SM上的基于熵的编解码器(ANS和ZSTD)能带来真正的节省。在恢复过程中,GPU在恢复训练前是空闲等待数据的,SM可用性不是约束条件,而SM上的ANS在提供相当吞吐量(247-264 GB/s)的同时产生更小的文件。

检查点压缩是训练流水线中投资回报率最高且最容易实现的优化之一。检查点是训练流水线中最大的文件,压缩它们吧。FINISHED