PyTorch模型训练与评估

1,560 阅读3分钟

持续创作,加速成长!这是我参与「掘金日新计划 · 10 月更文挑战」的第5天,点击查看活动详情

前言

一旦模型、数据集、损失函数和优化器准备完成后,我们就可以开始训练模型了。在本节中,我们将学习如何正确训练和评估深度学习模型。

模型训练与评估

我们首先编写用于批 (batch) 处理、时期 (epoch) 处理和训练模型的辅助函数。

1. 编写辅助函数计算每批数据的损失值:

def loss_batch(loss_func, xb, yb,yb_h, opt=None):
    loss = loss_func(yb_h, yb)
    metric_b = metrics_batch(yb,yb_h)
    if opt is not None:
        loss.backward()
        opt.step()
        opt.zero_grad()
    return loss.item(), metric_b

2. 接下来,定义一个辅助函数来计算模型在每批数据上的准确率:

def metrics_batch(target, output):
    pred = output.argmax(dim=1, keepdim=True)
    corrects=pred.eq(target.view_as(pred)).sum().item()
    return corrects

3. 接下来,定义一个辅助函数来计算数据集的损失和度量值:

def loss_epoch(model,loss_func,dataset_dl,opt=None):
    loss=0.0
    metric=0.0
    len_data=len(dataset_dl.dataset)
    for xb, yb in dataset_dl:
        xb=xb.type(torch.float).to(device)
        yb=yb.to(device)
        yb_h=model(xb)
        loss_b,metric_b=loss_batch(loss_func, xb, yb,yb_h, opt)
        loss+=loss_b
        if metric_b is not None:
            metric+=metric_b
    loss/=len_data
    metric/=len_data
    return loss, metric

4. 最后,定义 train_val 函数用于评估模型性能:

def train_val(epochs, model, loss_func, opt, train_dl, val_dl):
    for epoch in range(epochs):
        model.train()
        train_loss, train_metric=loss_epoch(model,loss_func,train_dl,opt)
        model.eval()
        with torch.no_grad():
            val_loss, val_metric=loss_epoch(model,loss_func,val_dl)
        accuracy=100*val_metric
        print("epoch: %d, train loss: %.6f, val loss: %.6f, accuracy: %.2f" %(epoch, train_loss,val_loss,accuracy))

5. 训练模型数个 epoch

num_epochs=5
train_val(num_epochs, model, loss_func, opt, train_dl, val_dl)

训练开始后,可以看到模型训练过程中损失和性能变化:

epoch: 0, train loss: 0.22345, val loss: 0.094503, accuracy: 96.94
...
epoch: 5, train loss: 0.02345, val loss: 0.049503, accuracy: 98.02

存储和加载模型

训练完成后,我们可以将训练后的参数存储在文件中以供部署和之后加载使用,有两种常见的保存模型的方法。

首先,我们介绍第一种方法。

1. 首先,将模型参数或 state_dict 存储在文件中:

path2weights="./models/weights.pt"
torch.save(model.state_dict(), path2weights)

2. 要从文件中加载模型参数,需要定义一个 Net 类的对象:

_model = Net()

3. 然后,从文件中加载 state_dict

weights=torch.load(path2weights)

4. 接下来,将 state_dict 设置为模型参数:

_model.load_state_dict(weights)

接下来,我们继续学习第二种方法。

1. 首先,将模型存储在一个文件中:

path2model="./models/model.pt"
torch.save(model,path2model)

2. 要从文件中加载模型参数,首先将定义一个 Net 类的对象:

_model = Net()

3. 然后,从本地文件中加载模型:

_model=torch.load(path2model)

在本小节中,我们学习了两种存储训练模型的方法。在第一种方法中,我们只存储了 state_dict 或模型参数。当我们需要训练好的模型进行部署时,我们必须创建模型的对象,然后从文件中加载参数,然后将参数设置到模型中,这种方式是 PyTorch 推荐的方法。

在第二种方法中,我们将模型存储到一个文件中,即我们将模型和 state_dict 都存储在一个文件中。当我们需要训练好的模型进行部署时,我们都需要创建一个 Net 类对象。然后,我们从文件中加载模型。因此,与第一种方法相比并没有实际的优势。

 

部署模型

要部署模型,我们需要使用上一小节中介绍的方法加载模型。一旦模型被加载到内存中,我们就可以将新数据传递给模型,利用模型进行预测。

1. 要将模型部署在验证数据集中的样本图像上,我们首先加载一个样本张量:

n=100
x= x_val[n]
y=y_val[n]
print(x.shape)

2. 然后,对样本张量进行预处理:

x= x.unsqueeze(0)
x=x.type(torch.float)
x=x.to(device)

3. 接下来,使用加载完成的神经网络模型获取预测结果:

output=_model(x)
pred = output.argmax(dim=1, keepdim=True)
print (pred.item(),y.item())

相关链接

PyTorch张量操作详解

PyTorch数据加载和处理

PyTorch神经网络模型构建

PyTorch定义损失函数和优化器