基于MFCC特征提取和神经网络的语音信号识别算法matlab仿真

90 阅读4分钟

1.算法仿真效果

matlab2022a仿真结果如下:

1.png

2.png

3.png

4.png  

2.算法涉及理论知识概要

        在语音识别(Speech Recognition)和话者识别(Speaker Recognition)方面,最常用到的语音特征就是梅尔倒谱系数(Mel-scale Frequency Cepstral Coefficients,简称MFCC)。根据人耳听觉机理的研究发现,人耳对不同频率的声波有不同的听觉敏感度。从200Hz到5000Hz的语音信号对语音的清晰度影响对大。两个响度不等的声音作用于人耳时,则响度较高的频率成分的存在会影响到对响度较低的频率成分的感受,使其变得不易察觉,这种现象称为掩蔽效应。由于频率较低的声音在内耳蜗基底膜上行波传递的距离大于频率较高的声音,故一般来说,低音容易掩蔽高音,而高音掩蔽低音较困难。在低频处的声音掩蔽的临界带宽较高频要小。所以,人们从低频到高频这一段频带内按临界带宽的大小由密到疏安排一组带通滤波器,对输入信号进行滤波。将每个带通滤波器输出的信号能量作为信号的基本特征,对此特征经过进一步处理后就可以作为语音的输入特征。由于这种特征不依赖于信号的性质,对输入信号不做任何的假设和限制,又利用了听觉模型的研究成果。因此,这种参数比基于声道模型的LPCC相比具有更好的鲁邦性,更符合人耳的听觉特性,而且当信噪比降低时仍然具有较好的识别性能。

        梅尔倒谱系数(Mel-scale Frequency Cepstral Coefficients,简称MFCC)是在Mel标度频率域提取出来的倒谱参数,Mel标度描述了人耳频率的非线性特性,它与频率的关系可用下式近似表示:

2c0d699268144b0f602ee33e270350f0_watermark,size_14,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_20,type_ZmFuZ3poZW5naGVpdGk=.png  

        美尔尺度是建立从人类的听觉感知的频率——Pitch到声音实际频率直接的映射。人耳对于低频声音的分辨率要高于高频的声音。通过把频率转换成美尔尺度,我们的特征能够更好的匹配人类的听觉感知效果。从频率到美尔频率的转换公式如下:

 

M(f)=1125ln(1+f/700)M(f)=1125ln(1+f/700)M(f)=1125ln(1+f/700)M(f)=1125ln(1+f/700)

 

而从美尔频率到频率的转换公式为:

 

M−1(m)=700(em/1125−1)M−1(m)=700(em/1125−1)M−1(m)=700(em/1125−1)M−1(m)=700(em/1125−1)

 

流程图:

63b7c850b56d8a76ff7737a4eb97b046_watermark,size_14,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_20,type_ZmFuZ3poZW5naGVpdGk=.png  

预处理包括预加重、分帧、加窗。

(1)预加重

        预加重的目的是提升高频部分,使信号的频谱变得平坦,保持在低频到高频的整个频带中,能用同样的信噪比求频谱。同时,也是为了消除发生过程中声带和嘴唇的效应,来补偿语音信号受到发音系统所抑制的高频部分,也为了突出高频的共振峰。预加重处理其实是将语音信号通过一个高通滤波器。

 

(2)分帧

        由于语音信号的非平稳特性 和 短时平稳特性,将语音信号分分帧。一帧有N个采样点,如N的值为256或512,涵盖的时间约为20~30ms左右。为了避免相邻两帧的变化过大,平缓过度,因此会让两相邻帧之间有一段重叠区域,此重叠区域包含了M个取样点,通常M的值约为N的1/2或1/3。通常语音识别所采用语音信号的采样频率为8KHz或16KHz,以8KHz来说,若帧长度为256个采样点,则对应的时间长度是256/8000×1000=32ms。

(3)加窗

      为了缓解频谱泄漏。将每一帧乘以一个窗函数,如汉明窗,海宁窗。假设分帧后的信号为S(n), n=0,1…,N-1, N为帧的大小。

 

      语音信号的倒谱分析就是求信号倒谱特征参数的过程,可以通过同态处理来处理。同态处理实现了卷积关系变化为求和关系的分离操作。

 

3.MATLAB核心程序

....................................... `%Input File

FileName    = ['data\man1.mp3';'data\man2.mp3';'data\man3.mp3'];

file_length = size(FileName);

.....................................................................

 

    while(temp_var <= L)

        for i = 1:1:Fsample;

            if (i+(temp_var2-1)*Fstep) <= L

               y1_frame(i,temp_var2) = y1((temp_var2-1)*Fstep+i,1);

            end

            temp_var = (i+(temp_var2-1)*Fstep);

        end

        temp_var2 = temp_var2+1;

    end

    l1 = length(y1_frame);

    clear temp_var temp_var2 ;

    %FFT

    Nfft = 2^nextpow2(Fsample);

    Y    = fft(y1_frame,Nfft)/(Fsample/2);

    f    = (Fs/2)*linspace(0,1,Nfft/2 + 1);

    Y_periodogram = (Y.*conj(Y))/Nfft;

 

    %Mel-spaced Filter Banks

    m1   = 1125*log(1 + 300/700);

    m2   = 1125log(1 + Fs/(2700));

    m    = linspace(m1,m2,28);

    f1   = 700*(exp(m/1125) - 1);

    b    = floor((Nfft+1)*f1/Fs);

    clear m1 m2 f1

    max_len = max(b);

    

    %Filter Bank Design

    clear H m

    m    = 2;

    for m =2:1:length(b)-1

        k = 1;

        while(k <= max(b))

            if(k <= b(m) && k >= b(m-1))

                H(k,m-1) = (k-b(m-1))/(b(m)-b(m-1));

            else if(k <= b(m+1) && k >= b(m))

                H(k,m-1) = (b(m+1)-k)/(b(m+1)-b(m));

            else

                H(k,m-1) = 0;

                end

            end

            k = k+1;

        end

    end

    clear m k b

    %Filter Bank Energies

    e_pf         = transpose(H)*(Y_periodogram((1:max_len),:));

    %Cepstral Coefficient Calculation

    log_coeff    = log(e_pf);

    cepstr_coeff = dct(log_coeff);

    cepstr_coeff = cepstr_coeff(1:12,:);

    for i = 1:l1

        train_input(:,(j-1)*l1+i) = cepstr_coeff(:,i);

        train_target(j,(j-1)*l1+i)= 1;

    end

end

clear file_length

 

count = 0;

figure;

while(count < 10)

    hidden_layer_size = 32;

    net               = patternnet(hidden_layer_size);

    net.divideParam.trainRatio = 0.75;

    net.divideParam.valRatio   = 0.1;

    net.divideParam.testRatio  = 0.1;

    [net,tr]                   = train(net,train_input,train_target);

    plotperform(tr)

    count = count + 1 ;

end

view(net)

 

save nets.mat net tr`