Python 人工智能实战:智能识别

194 阅读16分钟

1.背景介绍

概述

近年来,越来越多的人们把目光投向了人工智能(AI)的各个领域。在日益扩大的人工智能应用中,图像、语音、自然语言处理等领域受到重视。而通过实现机器学习和深度学习的算法,可以帮助企业快速解决很多实际的问题。Python 在 AI 技术的发展中扮演着重要角色。Python 的易用性和灵活性,以及其丰富的第三方库支持,使得它成为许多 AI 爱好者的首选编程语言。

Python 是一门开源、跨平台、动态语言,它被广泛用于科学计算、数据分析、web 开发、游戏开发、机器学习等领域。由于其简单易懂的语法和广泛使用的第三方库,Python 在许多技术领域都有很高的应用价值。

Python 有非常成熟的生态环境。它既有成熟的标准库(如数学运算、日期时间处理、字符串处理等),也有庞大的第三方库支持(如机器学习框架 TensorFlow 和 PyTorch、自然语言处理工具 NLTK)。借助这些库,我们可以快速地构建出一些功能较为完备的 AI 系统。另外,Python 提供了自动化脚本编写能力,使得我们可以快速部署自己的 AI 系统。此外,Python 还拥有强大的可扩展性,我们可以在其中自由地调用 C/C++ 或 Fortran 编写的底层函数库。

本文将以图像识别(Image Recognition)作为案例,深入探讨一下 Python 中的人工智能技术及相关应用。希望通过阅读本文,能够让读者了解 Python 在人工智能领域的最新进展,并对 Python 的发展具有更加深入的理解。

任务描述

图像分类

给定一张图片,判断其所属类别,即将不同的图片划分到不同的类别中。比如:给定一张猫的照片,计算机系统应该输出 “猫” 这个类的概率。

目标检测

在一个图像中找出多个感兴趣的对象并标注位置信息,比如:在一幅图像中找到人脸、汽车、狗等物体,并给出它们的坐标位置、大小等信息。

文字识别

给定一段文字,计算机系统应该能够自动将文字转换为文本信息,而不是手工输入。比如:给定一句话:"我要吃个烤鸡",计算机系统应该输出 "烤鸡" 这个单词。

核心概念与联系

图像分类器

图像分类器就是依据某种特定的特征提取方法从一系列的训练样本中学习出一个模型,该模型能够根据输入的图像预测其所属的类别。图像分类器的典型结构包括卷积神经网络(CNN)、循环神经网络(RNN)以及递归神经网络(RNN)。它们都采用不同的方式进行特征提取,但基本思想是相同的——通过训练集来学习图像的共同特征,然后利用这些特征来预测新的数据的标签。

深度学习

深度学习(Deep Learning)是指利用神经网络模拟人脑神经元的工作原理,通过反向传播算法不断调整权重参数,使得网络逐渐拟合训练数据,最终达到人脑无法手动设计复杂结构的学习效果。深度学习基于以下观点:

  • 人的大脑拥有高度组织化的网络结构,每一个神经元之间存在相互连接的传递过程;
  • 通过大量的神经元之间的相互作用建立起复杂的关联规则;
  • 大脑能够快速识别、组合和学习新的模式。

深度学习的典型模型有卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)、递归神经网络(Recursive Neural Network,RNN)以及生成对抗网络(Generative Adversarial Network,GAN)。CNN 和 RNN 分别用于图像识别、序列预测以及文本生成等任务,而 GAN 则用于图像生成和摘要等任务。

神经网络

神经网络由多个节点(或称神经元)组成,每个节点都是一个数学函数,其接受一定数量的输入信号,经过一系列的变换得到输出信号。通过网络中的激活函数,输出信号会送回至其他节点,形成一种有向无环图(DAG),描述了信号如何从输入层流动到输出层。在这个过程中,神经元内部的参数(称作权重)随着网络训练而更新。

为了训练神经网络,我们需要定义一个损失函数,衡量模型的预测结果与真实值之间的差距。训练时,我们根据损失函数反向传播梯度,更新网络参数以减小损失。

为了防止网络过拟合,除了损失函数之外,我们还可以使用正则化策略,如 L2 正则化、Dropout 等。L2 正则化会惩罚网络的权重过大,Dropout 会随机屏蔽部分神经元的输出,降低模型复杂度。

在深度学习中,我们通常采用卷积神经网络 (ConvNet) 来解决图像分类、目标检测和文本生成等任务。当输入的图像大小较大时,ConvNet 可以提取局部特征;当输入的图像序列长度较长时,ConvNet 可以捕获时间上的依赖关系。

数据集

一般来说,图像分类任务需要大量的训练数据,并且数据集的质量决定着最终模型的准确率。目前,市面上已有许多优秀的公开图像分类数据集,例如 ImageNet、CIFAR-10、MNIST 等。

超参数

超参数是指对训练过程进行配置的参数,比如选择优化算法、设置迭代次数、设置学习率等。

评估指标

评估指标用来衡量分类模型的性能。常用的评估指标有精度(accuracy)、召回率(recall)、F1 值(F1 score)、AUC 值(Area Under the Curve)等。

精度表示正确预测的个数与总样本个数的比率,精度越高代表模型的准确率越高。召回率(recall)表示真阳性样本数与所有样本中真阳性样本的比率,召回率越高代表模型的召回率越高。F1 值即精确率与召回率的调和平均值,F1 值越高代表模型的 F1 值越高。AUC 值是 ROC 曲线下的面积,AUC 值越接近 1 代表模型的性能越好。

目标检测

目标检测任务旨在从图像或者视频中,检测出多个感兴趣的物体,并提供它们的位置信息、大小、类别等。目标检测模型主要由两个组件构成——边界框生成器(Bounding Box Generator)和分类器(Classifier)。

边界框生成器负责生成候选框(candidate bounding box),其中每个候选框代表了一个潜在物体的可能位置。分类器用于对候选框进行分类,并给出它们属于哪个类别。由于目标检测任务比较困难,训练数据往往比较少,因此需要大量的实验和尝试才能取得更好的效果。

目标跟踪

目标跟踪任务要求对视频中的物体进行持续跟踪,以便能够按照物体的移动轨迹来产生更高质量的结果。目标跟踪模型主要由三个组件构成——目标定位器(Object Tracker)、跟踪机制(Tracking Mechanism)和重新识别机制(ReIdentification Mechanism)。

目标定位器负责对输入的帧进行初步定位,确定物体的位置。跟踪机制则负责追踪前面的物体,并生成轨迹。重新识别机制则用于检测物体的变化,并根据轨迹信息进行重新识别。

模型压缩与剪枝

模型压缩和剪枝是提升模型效率的有效手段。模型压缩往往采用剪枝的方法,删去冗余的权重参数,缩小模型规模。模型剪枝则是一种更加激进的方式,它通过删除网络中间的层来压缩模型规模,提升模型的速度和性能。

2.核心算法原理和具体操作步骤以及数学模型公式详细讲解

  1. 输入图像:首先需要输入一张待分类的图像,比如一副手绘的图画或是相机拍摄的照片。

  2. 图像预处理:图像预处理(image pre-processing)是对原始图像进行预处理,以提取有效的信息并消除噪声、干扰、偏移、旋转等因素影响。图像预处理可以有以下几种方式:

    • 灰度化:将彩色图像转化为灰度图像,以减少图像存储空间。
    • 锐化:对图像进行锐化操作,突出边缘细节。
    • 对比度增强:增加图像的对比度,以提高亮度的鲁棒性。
    • 直方图均衡化:提高图像的对比度和亮度分布,以减轻光照条件下图像噪声的影响。
    • 上采样:上采样(upsampling)是指将图像放大,以更好地适应不同分辨率的显示设备。
    • 下采样:下采样(downsampling)是指将图像缩小,以节省存储空间或提高处理速度。
  3. CNN:卷积神经网络(Convolutional Neural Networks,CNNs)是深度学习的一种类型,可以有效地处理图像数据。CNN 的核心思想是通过多层卷积层和池化层来提取图像特征。卷积层是用来提取图像局部特征的,它通过连续的卷积操作来抽取图像区域内的特征。池化层则是用来降低参数数量,提高模型的整体性能的。最后,分类层则用于对提取到的特征进行分类。

常见的 CNN 结构有 LeNet、AlexNet、VGG、GoogLeNet、ResNet 等。

  1. 数据集:图像分类任务需要大量的训练数据,不同的数据集之间往往存在巨大的差异,比如数据集 A 中有 97% 的图像都是猫,而数据集 B 中只有 1% 的图像才是猫。为了保证模型的泛化能力,需要在多个数据集上进行训练。

  2. 数据增强:图像分类任务中,往往需要进行数据增强(data augmentation),这是为了增加模型的泛化能力。数据增强的方法有以下几种:

    • 平移变换:随机改变图像的位置,使模型能够更好地适应各种位置。
    • 旋转变换:随机旋转图像,使模型能够更好地适应不同角度的图像。
    • 缩放变换:随机缩放图像,使模型能够更好地适应不同尺寸的图像。
    • 裁剪变换:随机裁剪图像,使模型能够更好地适应物体周围的不完整情况。
    • 翻转变换:随机镜像图像,使模型能够更好地适应不同方向的物体。
    • 颜色变换:随机改变图像的颜色,使模型能够更好地适应不同场景的图像。
    • 阴影变换:随机改变图像的阴影,使模型能够更好地适应不同光源的影响。

    数据增强的目的就是通过生成更多的训练样本,提高模型的泛化能力。

  3. 损失函数:图像分类任务通常采用交叉熵(cross entropy)损失函数,它衡量模型对于输入数据的分类准确率。

  4. 优化器:优化器(optimizer)用于更新模型参数,以最小化损失函数的值。常见的优化器有 SGD、AdaGrad、RMSprop、Adam 等。

  5. 训练轮次:训练轮次(epoch)是指模型从训练集中抽取多少个批次数据进行一次迭代。

  6. 学习率:学习率(learning rate)是模型训练过程中的参数,它控制模型是否收敛,以及减小损失的速度。

  7. 验证集:验证集(validation set)是指在训练期间用于评估模型性能的数据集。如果模型在训练过程中遇到了过拟合现象,那么就需要在验证集上进行测试,以确认模型是否过度操纵。

  8. 模型保存与加载:模型的保存与加载(model saving and loading)是保持模型训练过程不断改善和提高性能的关键。在模型训练完成后,我们可以保存模型参数,之后就可以使用该参数对图像进行分类。

  9. 推理(inference):推理(inference)是指利用训练好的模型对新的图像进行分类,以获得它们的标签。

  10. IoU:Intersection over Union,即交并比,是一个度量两个区域(比如两个矩形框)之间相交部分和并集部分的比值。

  11. mAP:mAP(mean Average Precision)是度量检测模型在不同 IoU 阈值下的平均精度。

  12. 蒙版(mask):蒙版(Mask)是用于对目标进行分割的一种方法,在蒙版区域内的像素被置为 1,否则为 0。

  13. 可视化工具:可视化工具(Visualization Tools)用于可视化训练过程,以观察模型的训练状态,比如训练集上的损失、验证集上的精度。

  14. NMS:Non Maximum Suppression,即非极大值抑制,是一种图像分类方法,用于合并相似的目标区域,以减少重复检测带来的计算资源占用。

  15. Anchor Free Detector:Anchor Free Detector 是指不需要设置锚点(anchor point)的目标检测器。Anchor Free 方法的基本思路是直接对所有感兴趣区域进行候选,并根据候选区域的位置和大小来确定对应目标的类别。

  16. Pytorch:PyTorch 是当前最热门的深度学习框架,它的速度快且易于使用。PyTorch 使用 GPU 来加速计算,并提供高阶 API 来构建复杂的神经网络。

3.具体代码实例和详细解释说明

下面我们结合图像分类任务、目标检测任务和文字识别任务,详细看看 Python 在人工智能领域的最新进展。

图像分类

数据集准备

import torch
from torchvision import datasets, transforms
import matplotlib.pyplot as plt

transform = transforms.Compose([transforms.ToTensor(),
                                transforms.Normalize((0.5,), (0.5,))])

trainset = datasets.MNIST(root='./mnist', train=True, download=True, transform=transform)
testset = datasets.MNIST(root='./mnist', train=False, download=True, transform=transform)

trainloader = torch.utils.data.DataLoader(trainset, batch_size=64, shuffle=True)
testloader = torch.utils.data.DataLoader(testset, batch_size=64, shuffle=False)

这里我们使用 MNIST 数据集,并进行数据预处理,包括归一化、拼接等操作。然后通过 DataLoader 将数据加载到内存中,并进行打乱。

创建模型

import torch.nn as nn
import torch.optim as optim

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(784, 256)
        self.relu1 = nn.ReLU()
        self.fc2 = nn.Linear(256, 128)
        self.relu2 = nn.ReLU()
        self.fc3 = nn.Linear(128, 10)
    
    def forward(self, x):
        x = x.view(-1, 784)
        x = self.fc1(x)
        x = self.relu1(x)
        x = self.fc2(x)
        x = self.relu2(x)
        x = self.fc3(x)
        return x
    
net = Net()
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

这里我们创建一个简单的三层全连接神经网络,包含 784 个输入节点、256 个隐藏节点、128 个隐藏节点和 10 个输出节点。我们使用交叉熵作为损失函数,采用随机梯度下降法作为优化器。

训练模型

for epoch in range(5):
    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        inputs, labels = data
        
        optimizer.zero_grad()

        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        running_loss += loss.item()
        
    print('[%d] loss: %.3f' % ((epoch + 1), running_loss / len(trainloader)))

print('Finished Training')

这里我们在 MNIST 数据集上训练我们的模型,训练 5 个周期,每一周期打印一次训练误差。每一次迭代都会对整个训练集进行训练,然后计算平均损失,并执行一次梯度下降法更新模型参数。

测试模型

correct = 0
total = 0
with torch.no_grad():
    for data in testloader:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()
        
print('Accuracy of the network on the 10000 test images: %d %%' % (100 * correct / total))

这里我们测试模型的准确率,通过遍历测试集并对模型的输出和标签进行对比,计算正确的结果数量,然后求出正确率。

目标检测

数据集准备

import cv2
import numpy as np

def get_pascal_voc_dataset(data_dir):
    classes = ['__background__']
    with open(os.path.join(data_dir, 'ImageSets/Main/trainval.txt')) as f:
        lines = [line.strip().split()[-1] for line in f]
    for line in lines:
        classes.append(line)

    dataset = []
    for anno_file in os.listdir(os.path.join(data_dir, 'Annotations')):
        if not os.path.exists(os.path.join(data_dir, 'JPEGImages', img_name)):
            continue
        size = cv2.imread(os.path.join(data_dir, 'JPEGImages', img_name)).shape[:2][::-1]
        objects = ET.parse(os.path.join(data_dir, 'Annotations', anno_file)).findall('object')
        bboxes = []
        labels = []
        difficulties = []
        for obj in objects:
            name = obj.find('name').text
            bbox = obj.find('bndbox')
            xmin = float(bbox.find('xmin').text)
            ymin = float(bbox.find('ymin').text)
            xmax = float(bbox.find('xmax').text)
            ymax = float(bbox.find('ymax').text)
            difficulty = int(obj.find('difficult').text) == 1
            
            cls_id = classes.index(name)
            bboxes.append([xmin, ymin, xmax, ymax])
            labels.append(cls_id)
            difficulties.append(difficulty)
            
        sample = {'img': os.path.join(data_dir, 'JPEGImages', img_name),
                  'bboxes': np.array(bboxes),
                  'labels': np.array(labels),
                  'difficulties': np.array(difficulties)}
        dataset.append(sample)
    
    return dataset

这里我们准备一个 Pascal VOC 数据集,通过读取 Pascal VOC 格式的标注文件,获取每个样本的图片路径、标注框、标签和难易程度。

创建模型

import torchvision
from torchvision.models.detection.faster_rcnn import FastRCNNPredictor
from torchvision.models.detection.mask_rcnn import MaskRCNNPredictor

def get_model(num_classes):
    # load a model pre-trained on COCO
    model = torchvision.models.detection.fasterrcnn_resnet50_fpn(pretrained=True)

    # replace the classifier with a new one, that has num_classes which is user-defined
    num_classes = num_classes + 1  # add background class to count the number of classes
    in_features = model.roi_heads.box_predictor.cls_score.in_features
    model.roi_heads.box_predictor = FastRCNNPredictor(in_features, num_classes)

    # now get the number of input features for the mask classifier
    in_features_mask = model.roi_heads.mask_predictor.conv5_mask.in_channels
    hidden_layer = 256
    # and replace the mask predictor with a new one
    model.roi_heads.mask_predictor = MaskRCNNPredictor(in_features_mask,
                                                        hidden_layer,
                                                        num_classes)

    return model

这里我们创建基于 Faster RCNN 的对象检测模型,通过设置预训练的 ResNet-50 FPN 模型,添加一个分类层和两个额外的卷积层,来对图像中的物体进行分类和定位。

训练模型

device = torch.device('cuda') if torch.cuda.is_available() else torch.device('cpu')

model.to(device)

params = [p for p in model.parameters() if p.requires_grad]
optimizer = torch.optim.SGD(params, lr=0.005,
                            momentum=0.9, weight_decay=0.0005)

lr_scheduler = torch.optim.lr_scheduler.StepLR(optimizer,
                                               step_size=3,
                                               gamma=0.1)

for epoch in range(20):
    training_loss = []
    learning_rate = []
    model.train()
    
    for idx, (imgs, annos) in enumerate(train_dataloader):
        imgs = list(img.to(device) for img in imgs)
        annos = [{k: v.to(device) for k, v in t.items()} for t in annos]
        
        loss_dict = model(imgs, annos)
        
        losses = sum(loss for loss in loss_dict.values())
        
        optimizer.zero_grad()
        losses.backward()
        optimizer.step()
        
        training_loss.append(losses.item())
        learning_rate.append(optimizer.param_groups[0]['lr'])
        
        writer.add_scalars('training loss', {str(idx+1): training_loss}, epoch*len(train_dataloader)+idx)
        writer.add_scalar('learning rate', optimizer.param_groups[0]['lr'], epoch*len(train_dataloader)+idx)

这里我们训练 Faster RCNN 对象检测模型,并使用 TensorBoard 记录训练过程的损失和学习率曲线。

测试模型

device = torch.device('cuda') if torch.cuda.is_available() else torch.device('cpu')

model.to(device)
model.eval()

with torch.no_grad():
    for image, target in val_dataloader:
        image = list(img.to(device) for img in image)
        predictions = model(image)
        pred_scores = []
        for prediction in predictions:
            boxes = prediction['boxes'].data.numpy()[:, :4].astype(np.int32)
            scores = prediction['scores'].data.numpy()
            pred_scores.append(scores)

            for box, score in zip(boxes, scores):
                if score < threshold:
                    break
                draw_box(image[0], box, color=(255, 0, 0), thickness=1)
                
        avg_score = np.array(pred_scores).mean()
        print(avg_score)

这里我们测试 Faster RCNN 对象检测模型,通过遍历验证集并对模型的输出和标签进行对比,计算模型输出的平均精度。

文字识别

数据集准备

import os
import string
import random
from PIL import Image
from tqdm import tqdm


class CaptchaDataset(Dataset):
    """CAPTCHA 数据集"""

    def __init__(self, root_dir, mode="train", transform=None):
        self.mode = mode
        self.transform = transform

        # 获取图片目录列表
        self.image_paths = []
        for dir_path, dirs, files in os.walk(root_dir):
            for file_name in files:
                    self.image_paths.append(os.path.join(dir_path, file_name))

        # 初始化字符集
        self.characters = ''.join(['{:d}'.format(i) for i in range(10)])
        self.characters += string.ascii_uppercase
        self.characters += string.ascii_lowercase

        # 如果为训练模式,则构造标签字典
        if self.mode == "train":
            label_dict = {}
            for path in self.image_paths:
                label_dict[path] = ""
                code = os.path.splitext(os.path.basename(path))[0][:4]
                for char in code:
                    label_dict[path] += char
            self.label_dict = label_dict

    def __getitem__(self, index):
        # 获取图像路径
        image_path = self.image_paths[index]

        # 从标签字典中获取验证码
        if self.mode == "train":
            label = self.label_dict[image_path]
            label_tensor = torch.zeros((len(self.characters)), dtype=torch.float)
            for char in label:
                label_tensor[self.characters.index(char)] = 1.0
        else:
            label_tensor = None

        # 读取图像
        image = Image.open(image_path).convert("RGB")

        # 应用图像预处理
        if self.transform is not None:
            image = self.transform(image)

        return image, label_tensor

    def __len__(self):
        return len(self.image_paths)

这里我们准备一个 CAPTCHA 数据集,通过读取图片目录中的图片,生成训练集的标签字典。

创建模型

import torch
import torch.nn as nn
import torch.nn.functional as F


class Net(nn.Module):
    """卷积神经网络模型"""

    def __init__(self):
        super().__init__()
        self.conv1 = nn.Conv2d(3, 32, kernel_size=3, stride=1, padding=1)
        self.bn1 = nn.BatchNorm2d(32)
        self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2)

        self.conv2 = nn.Conv2d(32, 64, kernel_size=3, stride=1, padding=1)
        self.bn2 = nn.BatchNorm2d(64)
        self.pool2 = nn.MaxPool2d(kernel_size=2, stride=2)

        self.conv3 = nn.Conv2d(64, 128, kernel_size=3, stride=1, padding=1)
        self.bn3 = nn.BatchNorm2d(128)
        self.pool3 = nn.MaxPool2d(kernel_size=2, stride=2)

        self.linear1 = nn.Linear(128 * 3 * 3, 128)
        self.dropout1 = nn.Dropout(0.5)
        self.linear2 = nn.Linear(128, len(string.digits) + len(string.ascii_letters))

    def forward(self, x):
        x = self.pool1(F.relu(self.bn1(self.conv1(x))))   # 32 -> 14
        x = self.pool2(F.relu(self.bn2(self.conv2(x))))   # 64 -> 7
        x = self.pool3(F.relu(self.bn3(self.conv3(x))))   # 128 -> 4

        x = x.reshape(x.shape[0], -1)                     # flatten layer
        x = F.relu(self.linear1(x))                      # fully connected layer
        x = self.dropout1(x)                             # dropout layer
        x = self.linear2(x)                              # output layer
        logit = x

        return logit

这里我们创建一个简单的卷积神经网络模型,它包含四个卷积层和三个全连接层。

训练模型

device = torch.device('cuda') if torch.cuda.is_available() else torch.device('cpu')

net = Net().to(device)

optimizer = torch.optim.AdamW(net.parameters(), lr=0.001, betas=(0.9, 0.999))
criterion = nn.CrossEntropyLoss()

best_acc = 0
for epoch in range(10):
    running_loss = 0.0
    acc = 0
    cnt = 0
    net.train()
    for i, data in enumerate(tqdm(trainloader), 0):
        inputs, labels = data
        inputs = inputs.to(device)
        labels = labels.to(device)
        optimizer.zero_grad()

        # forward + backward + optimize
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        # 统计分类正确的数量
        predicts = torch.argmax(outputs, dim=-1)
        acc += (predicts == labels).sum().item()
        cnt += labels.size(0)

        running_loss += loss.item()

    # 每轮结束后,计算训练集上的准确率
    acc /= cnt
    print("[Epoch %d] Train Loss:%.3f Acc:%.3f" %
          (epoch + 1, running_loss / len(trainloader), acc))

    # 验证集的准确率
    best_acc = validate(net, validloader, device, best_acc)

这里我们训练卷积神经网络模型,使用 AdamW 优化器、交叉熵损失函数、Softmax 函数以及 Mean Squared Error 函数。我们使用 Softmax 函数对输出进行分类,计算分类准确率。

测试模型

def evaluate(net, dataloader, device):
    """测试模型"""
    n_samples = 0
    n_correct = 0
    net.eval()
    with torch.no_grad():
        for data in dataloader:
            images, labels = data
            images = images.to(device)
            labels = labels.to(device)
            logits = net(images)
            predicts = torch.argmax(logits, dim=-1)
            n_samples += labels.size(0)
            n_correct += (predicts == labels).sum().item()

    acc = n_correct / n_samples
    print("Test Acc:{}".format(acc))
    return acc

这里我们测试卷积神经网络模型,计算分类准确率。