基于CNN卷积网络的MNIST手写数字识别matlab仿真,CNN编程实现不使用matlab工具箱

145 阅读2分钟

1.算法运行效果图预览

2fa961c46f261061eed8b0af74e72076_82780907_202403011307240532294256_Expires=1709270244&Signature=tLUD75eKFtfsVbRNudeWK8PrV%2FM%3D&domain=8.jpeg

  25a253f0a9f7b5d1eac05dedf335da8f_82780907_202403011307240610958295_Expires=1709270244&Signature=QVSnA1X3cDu6HBGhaLQD%2FUVmzFE%3D&domain=8.jpeg

2.算法运行软件版本

matlab2022a

 

 

3.算法理论概述

        MNIST是一个手写数字的大型数据库,包含60,000个训练样本和10,000个测试样本。每个样本都是28x28像素的灰度图像,代表0到9之间的一个数字。

 

3.1 卷积神经网络(CNN)

       CNN是一种特别适合处理图像数据的神经网络。它主要由卷积层、池化层和全连接层组成。卷积层通过卷积运算提取图像的特征。给定输入图像I和卷积核K,卷积操作可以表示为:

d4abfdc5cee697e9c063c300570a9ad5_82780907_202403011306150438291484_Expires=1709270175&Signature=Vki%2Foo11WsR91gF%2F3yc59MaVDI8%3D&domain=8.png

 

其中,∗表示卷积操作。卷积层通常还包括激活函数,如ReLU(Rectified Linear Unit),用于增加非线性:

 

4afaea04bd119efa421c54c7fc1edb0b_82780907_202403011306040094638013_Expires=1709270164&Signature=eInBfw3MiRLUxS5Hh7Xbn3IvcYc%3D&domain=8.png

 

         池化层用于减少数据的空间尺寸,通常通过最大池化或平均池化来实现。这有助于减少计算量和过拟合。全连接层通常在CNN的最后几层,用于将学习到的特征映射到最终的输出类别上。

 

3.2 损失函数和优化

在训练CNN时,通常使用交叉熵损失函数来衡量模型的预测与真实标签之间的差异:

504eebf5eaecbfdb01014109da086f83_82780907_202403011304480827940800_Expires=1709270088&Signature=GIyEAtuWiDqWfxY9voz73sSyjkg%3D&domain=8.png

 

其中,yi​是真实标签,y^​i​是模型的预测概率。

 

优化算法(如梯度下降)用于最小化损失函数。给定学习率η,参数更新可以表示为:

 

893d63d307ac1b06baf2eeb5a2f0ac3d_82780907_202403011304370905694577_Expires=1709270077&Signature=I5azMfCpk3VlkFSXkmbfzNCE2d4%3D&domain=8.png

 

        CNN通过卷积层和池化层有效地提取图像特征,并通过全连接层进行分类。通过优化算法和损失函数,模型可以学习从输入图像到输出标签的映射。MNIST手写数字识别是一个经典的计算机视觉任务,CNN在这个任务上表现优异。

 

 

 

4.部分核心程序 `%输入图片

        input_layers = reshape(Ptrain(Ptrain_idx:(Ptrain_idx+783)),[28 28])';

        %归一化

        input_layers = round(input_layers./max(input_layers(:)))./256./0.03;

 

        t_y                       = 0.1.*ones([1 10]);

        t_y(Ttrain(Ttrain_idx)+1) = 0.9;

        Ptrain_idx                = Ptrain_idx + 784;

        Ttrain_idx                = Ttrain_idx + 1;

 

        %开始卷积

        %内核二进制化

        f1r                       = round(Filter1./max(abs(Filter1)));

        for i=1:Sconv1

            for j=1:Sconv1

                %卷积+偏置

                Oconv1(i,j,:) = reshape(input_layers(i:(i+Sfilter-1),j:(j+Sfilter-1)),1,[])*reshape(f1r,[],Nfilter) + Filter1_bias;

            end

        end

        %Relu激活

        Oconv1 = max(0,Oconv1);

        %池化

        [Opool1,p1idx] = max(reshape(permute(reshape(Oconv1,Sconv1,Npool,[]),[2 1 3]),Npool^2,[]));

save cnntrain.mat`