基于CNN卷积神经网络的调制信号识别算法matlab仿真

89 阅读4分钟

1.算法运行效果图预览

 

1.png

2.png

3.jpeg

4.jpeg  

 

2.算法运行软件版本

MATLAB2022A

 

3.算法理论概述

        在无线通信系统中,调制信号的识别是一项重要的任务。通过识别接收到的信号的调制方式,可以对信号进行解调和解码,从而实现正确的数据传输和通信。卷积神经网络(Convolutional Neural Network,CNN)是一种深度学习模型,在图像和信号处理领域取得了显著的成功。

 

  1. 卷积神经网络(CNN)

       CNN是一种深度学习模型,主要用于图像处理和模式识别任务。其核心原理是使用卷积层、池化层和全连接层来提取特征和进行分类。以下是CNN中常用的数学原理:

 

       卷积层: 卷积层通过滤波器(也称为卷积核)来提取图像或信号的特征。卷积操作通过将滤波器与输入图像或信号的局部区域进行元素相乘,并求和得到输出特征图。

 

       池化层: 池化层用于减小特征图的尺寸,并降低计算复杂度。常见的池化操作有最大池化和平均池化。

 

       全连接层: 全连接层将池化层输出的特征图映射到具体的分类结果,常用于分类任务。

 

  1. 调制信号识别

        调制信号识别任务是将接收到的信号进行分类,确定其调制方式。通常,调制信号可以表示为复数形式:

 

af0d7d7b8553aee37afcab2b0a177737_82780907_202309182357100488790296_Expires=1695053230&Signature=U430C%2BAqlYyLj7q8wCQtw%2BuDJOY%3D&domain=8.png

 

其中,AA为信号的幅度,fcf_c为信号的载频频率,ϕ(t)\phi(t)为信号的相位。

 

3.实现过程

  1. 数据预处理

 

        首先,需要准备用于训练和测试的调制信号数据集。数据预处理包括信号采样、归一化、分割成时域序列,并将其转换为CNN网络的输入格式。

 

  1. 搭建CNN网络

 

        构建卷积神经网络模型,可以根据任务的复杂性和需求选择合适的网络结构。一般来说,包含若干卷积层、池化层、全连接层和输出层。

 

  1. 训练CNN模型

 

       使用准备好的调制信号数据集,对CNN模型进行训练。训练过程中需要定义损失函数(通常使用交叉熵损失函数)和优化算法(如随机梯度下降),通过反向传播算法不断更新模型的参数,使其逐渐收敛到最优状态。

 

  1. 测试和验证

 

       训练完成后,使用测试集对模型进行验证和评估。计算准确率、精确度、召回率等指标来评估模型的性能。

 

  1. 调制信号识别

 

        最终,将训练好的CNN模型用于调制信号的识别。通过将接收到的信号输入CNN模型,得到分类结果,确定信号的调制方式。

 

4.部分核心程序 `% 构建调制类型分类的卷积神经网络模型modClassNet

modClassNet = [

  imageInputLayer([1 spf 2], 'Normalization', 'none', 'Name', 'Input Layer')

 

  convolution2dLayer(filterSize, 16*netWidth, 'Padding', 'same', 'Name', 'CNN1')

  batchNormalizationLayer('Name', 'BN1')

  reluLayer('Name', 'ReLU1')

  maxPooling2dLayer(poolSize, 'Stride', [1 2], 'Name', 'MaxPool1')

 

  convolution2dLayer(filterSize, 24*netWidth, 'Padding', 'same', 'Name', 'CNN2')

  batchNormalizationLayer('Name', 'BN2')

  reluLayer('Name', 'ReLU2')

  maxPooling2dLayer(poolSize, 'Stride', [1 2], 'Name', 'MaxPool2')

 

  convolution2dLayer(filterSize, 32*netWidth, 'Padding', 'same', 'Name', 'CNN3')

  batchNormalizationLayer('Name', 'BN3')

  reluLayer('Name', 'ReLU3')

  maxPooling2dLayer(poolSize, 'Stride', [1 2], 'Name', 'MaxPool3')

 

  convolution2dLayer(filterSize, 48*netWidth, 'Padding', 'same', 'Name', 'CNN4')

  batchNormalizationLayer('Name', 'BN4')

  reluLayer('Name', 'ReLU4')

  maxPooling2dLayer(poolSize, 'Stride', [1 2], 'Name', 'MaxPool4')

 

  convolution2dLayer(filterSize, 64*netWidth, 'Padding', 'same', 'Name', 'CNN5')

  batchNormalizationLayer('Name', 'BN5')

  reluLayer('Name', 'ReLU5')

  maxPooling2dLayer(poolSize, 'Stride', [1 2], 'Name', 'MaxPool5')

 

  convolution2dLayer(filterSize, 96*netWidth, 'Padding', 'same', 'Name', 'CNN6')

  batchNormalizationLayer('Name', 'BN6')

  reluLayer('Name', 'ReLU6')

 

  convolution2dLayer(filterSize, 128*netWidth, 'Padding', 'same', 'Name', 'CNN7')

  batchNormalizationLayer('Name', 'BN7')

  reluLayer('Name', 'ReLU7')

 

  averagePooling2dLayer([1 ceil(spf/32)], 'Name', 'AP1')

 

  fullyConnectedLayer(numModTypes, 'Name', 'FC1')

  softmaxLayer('Name', 'SoftMax')

 

  classificationLayer('Name', 'Output') ]

% 分析网络结构并展示网络的层次结构

analyzeNetwork(modClassNet)

 

 

% 最大训练轮数,网络将在此轮数结束后停止训练

maxEpochs           = 15;

% 每次迭代的小批量样本数量

miniBatchSize       = 256;

% 每隔多少次迭代进行一次验证,用于观察验证集上的性能

validationFrequency = 20;

% 设置训练选项,包括优化算法(adam)、学习率、训练轮数、小批量样本数量、是否每轮迭代都重新打乱数据、是否绘制训练进度图、是否显示训练过程信息、验证数据和验证频率、学习率衰减策略等

 

options = trainingOptions('adam', ...

  'InitialLearnRate',1e-2, ...

  'MaxEpochs',maxEpochs, ...

  'MiniBatchSize',miniBatchSize, ...

  'Shuffle','every-epoch', ...

  'Plots','training-progress', ...

  'Verbose',false, ...

  'ValidationData',{rxValidation,rxValidationLabel}, ...

  'ValidationFrequency',validationFrequency, ...

  'LearnRateSchedule', 'piecewise', ...

  'LearnRateDropPeriod', 9, ...

  'LearnRateDropFactor', 0.1, ...

  'ExecutionEnvironment', 'multi-gpu');

 

% 使用训练数据集rxTraining和标签rxTrainingLabel,利用设置的模型modClassNet和训练选项options训练得到调制类型分类的神经网络模型trainedNet0SNR_v7

 

trainedNet0SNR_v7 = trainNetwork(rxTraining,rxTrainingLabel,modClassNet,options);`