神经网络——损失和优化

126 阅读2分钟

持续创作,加速成长!这是我参与「掘金日新计划 · 10 月更文挑战」的第11天,点击查看活动详情

1 损失函数 Loss Function

  • 计算实际输出和目标之间的差距
  • 为更新输出提供一定的依据(反向传播)

L1loss() 平均绝对误差

MSELoss() 均方误差

CrossEntropyLoss() 交叉熵损失函数:处理分类问题常用

2 反向传播

对于神经网络的卷积核就是需要调节的,给每一个卷积核设置了一个参数为grad(梯度), 当采用反向传播的时候,每一个需要更新的参数都会求出来一个对应的梯度,然后在优化过程中就可以根据这个梯度对其中的参数进行优化,降低loss

3 优化器

在计算出模型的损失值之后,接下来需要利用损失值进行模型参数的优化。之前提到的反向传播只是模型参数优化中的一部分,在实际的优化过程中,还面临在优化过程中相关参数的初始化、参数以何种形式进行微调、如何选取合适的学习速率等问题。可以把优化函数看作上述问题的解决方案的集合。

import torchvision
from torch import nn
from torch.nn import Sequential, Conv2d, MaxPool2d, Flatten, Linear
from torch.utils.data import DataLoader

dataset = torchvision.datasets.CIFAR10('./cifar10', False, transform=torchvision.transforms.ToTensor())
dataloader = DataLoader(dataset, batch_size=64)

class Anke(nn.Module):
    def __init__(self):
        super(Anke, self).__init__()
        self.model1 = Sequential(
            Conv2d(3, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 64, 5, padding=2),
            MaxPool2d(2),
            Flatten(),
            Linear(1024, 64),
            Linear(64, 10)
        )

    def forward(self, x):
        x = self.model1(x)
        return x

loss = nn.CrossEntropyLoss()
anke=Anke()
#定义优化器 随机梯度下降
optim=torch.optim.SGD(anke.parameters(), lr=0.01) #学习率设置太大模型不稳定,太小学习太慢
for epoch in range(20):
    running_loss = 0
    for data in dataloader:
        imgs, targets = data
        outputs = anke(imgs)
        result_loss = loss(outputs, targets)
        optim.zero_grad() #梯度清零,因为上一次的梯度对当前优化没有用
        result_loss.backward() #反向传播,求出每一个节点的梯度
        optim.step() #调优
        running_loss += result_loss
     print(running_loss)