DarkNet-19网络结构介绍

658 阅读2分钟

一起养成写作习惯!这是我参与「掘金日新计划 · 4 月更文挑战」的第7天,点击查看活动详情

前言

这里将着重介绍网络的结构构成,不涉及原理讲解。

一.与VGG的比较

DarkNet-19卷积神经网络与VGG的不同:
1.激活函数由ReLu转变为Leaky ReLu
2.部分3x3卷积核转变为1x1卷积核,使用到了更小的卷积核
3.新增批量归一化(batchnorm层)
4.不再单一的最大化池化,使用全局平均池化和最大池化组合使用\

二.DarkNet-19组织结构介绍

输入数据(图像:256*256*3)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
最大池化(pool)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
最大池化(pool)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
最大池化(pool)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
最大池化(pool)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)

--卷积层(1*1)--
批量归一化(batchnorm )
激活函数(Leaky ReLu)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)

--卷积层(1*1)--
批量归一化(batchnorm )
激活函数(Leaky ReLu)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
最大池化(pool)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)

--卷积层(1*1)--
批量归一化(batchnorm )
激活函数(Leaky ReLu)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)

--卷积层(1*1)--
批量归一化(batchnorm )
激活函数(Leaky ReLu)

卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)

卷积层(3*3)
全局平均池化(avg)
saftmax层
输出数据(output)

通过上述的结构逻辑可以看出基本的卷积构成仍然为:卷积层+激活函数+池化层组成,经过多年的迭代,仍是处于这“三板斧”的构造

三. DarkNet-19内部参数详细表

image.png