卷积层问题[附答案]

152 阅读5分钟

关于卷积层的多选题练习,并附有答案。这是机器学习模型中在功能和计算方面最重要的一层。

如果你想复习这个概念,请阅读这篇文章👉。

让我们从问题开始。点击右边的选项,答案就会被解释。

问题1

卷积层是使CNN如此强大的原因。这个层是如何运作的?

卷积层的参数由可学习的过滤器组成,每个过滤器在空间上很小,但在输入体积的整个深度上都有延伸。

Conv层有一个大的特征数据库,可以收集信息以找到最佳输出。

Conv层的参数包括:你想做多少次迭代?

考虑到他们的输入量,对特征进行分析

在过滤器扩展之后,直觉上,网络将学习过滤器,当他们看到某种类型的视觉特征,如某种方向的边缘或第一层上的某种颜色的斑点时,就会激活。

问题2

什么是感受野?

是指神经元只与输入体积的局部区域连接的名称。

是赋予神经元关系的名称吗?

是指神经元只与输出体积的局部区域连接的名称。

当神经元难以找到连接时,这种超参数就会帮助它。

当处理高维输入(如图像)时,将神经元与前一卷中的所有神经元连接起来是不现实的。

问题3

哪个答案能更好地解释超参数深度?

它对应于我们想使用的过滤器的数量,每个过滤器都在学习寻找输入中的不同东西。

它对应的是神经元之间的连接有多深

对应于我们希望使用的特征的数量,每个学习在输入中寻找不同的东西。

对应于我们希望使用的特征的数量,每一个学习在之前的输出中寻找不同的东西。

例如,如果第一个卷积层将原始图像作为输入,那么沿深度维度的不同神经元可能会在出现不同方向的边缘或颜色斑块时激活。我们将把所有关注输入的同一区域的一组神经元称为深度列。

问题4

哪个答案能更好地解释超参数Stride?

它是多少像素,过滤器将被移动

是指过滤器、像素将被移动的程度。

它是指将会使用多少特征

它定义了我们将收到多少个输出

当我们的strider为1时,过滤器将每次移动一个像素。如果我们的strider是2,它将一次移动2个像素。有时stride是3或更多,但这是不寻常的。

问题5

哪个答案能更好地解释超参数Zero-padding

它说的是你用多少个零来填充输入量

它用零来填充缺失的值

它避免了数值之间的零

它说的是你用多少个零来填充输出量。

有时,在输入卷的边界用零填充,有助于我们控制输出卷的空间大小。

问题6

卷积层中的特征图是什么?

它是一个由CNN学习的特征图。

它是一个你用作输入的特征图。

它是一个帮助CNN做出更好预测的特征图。

如果是一个算法不会使用的特征图

每当CNN找到一个重要的特征,它就会被存储在特征图中。另外,如果我们在某个区域有一个特征的组合,那么我们有可能在那里有一个更重要和更复杂的特征。

问题7

当我们谈论Conv层时,什么是内核大小?

内核大小 = n_inputs * n_outputs

内核大小 = n_inputs / n_outputs

内核大小 = (2 * n_inputs) * n_outputs

内核大小 = n_inputs * (2 * n_outputs)

一个全连接层将每个输入与他的内核项中的每个输出连接起来。

问题8

为什么保持小的内核大小如此重要?

参数的数量随着内核大小呈四次方增长。

特征的数量随内核大小呈四次方增长。

参数的数量随内核大小呈四次方增长。

特征的数量随着核的大小呈四次方的减少。

这使得大卷积核的成本效率不够高,甚至更多,当我们想要大量的通道时。

问题9

现在更多使用的核大小是什么?

3x3和5x5

3x3和9x9

5x5和7x7

5x5和11x11

这些核心尺寸提供了一个良好的结果,成本较低。

问题10

Conv层很强大,但也有很大的计算成本。以下哪种技术可以使其成本降低?

更宽的构图

更大的转折

较小的构图

更快的对合

在Wider Convolutions中,我们使用更少但更多的层,其中脂肪意味着每层更多的内核。对于GPU或者其他大规模的并行机器来说,处理一个大的数据块而不是很多小的数据块更容易。

通过OpenGenus的这些关于卷积层的问题,你一定对卷积层有了很好的了解。请欣赏。