神经网络的一些个人想法
深度学习或机器学习的本质
以图片为例,神经网络的学习,学习的其实是图片背后的数字逻辑,或者说是数学信息,学习的是图片下可能的数学信息的高度组合,这种爆炸量的数学逻辑是人类无法直接用数学函数在纸上模拟的,但是可能客观上存在,所以我们通过计算机也就是机器来帮助我们进行相关的学习,学习的是真实图片背后的数学逻辑,到底怎样的数字组合代表的是什么图片这种简单的数学逻辑,其实本质上并不复杂,只是简单的数字组合模式匹配,这也是为什么我们在神经网络中使用的数学公式只是K*X+B再加上简单的激活函数就能模拟出来的原因,难得是这种学习需要大量的时间和机器,而为了节省时间和效率,演化出了各种网络们都是为了解决这个问题 激活函数的作用非常神奇,从宏观上来看,就是为了我们的建模能够更好的拟合而引入的曲线;从神经网络内部来看,它的存在实际上是通过所谓的激活而过滤掉无用的参数,或者说是通过激活来使模拟更有效避免前面网络认为的无用的参数到达后面,因为网络最多是进行抑制,而无法阻止传播,通过借助激活函数就能有效组织传播
全连接神经网络
作为最开始的神经网络,奠定了神经网络的基础。全连接神经网络通过不断的加深网络的层数并不断的在每层网络后添加激活函数,使得网络由于参数变多学习能力加强同时每层后的激活层使得该网络在宏观函数上的拟合能力更强,简单来说就是有更多的弯曲点,能够更好的贴近真实的建模平面。 在全连接神经网络学习阶段,以图片为例,它将图片一维化后,将参数送入网络进行学习,使得网络具有识别该图片的能力,但是将网络拆开后就出现了一个问题,此网络只关心网络中的单体数据的模型,但是单体数据相互之间的关联关系更加重要
卷积神经网络
卷积神经网络的出现就弥补了全连接神经网络的缺点,它引入卷积核的概念(卷积核不是在神经网络中被发明的,而是在图像领域就有的,如锐化图片就可以使用卷积核来完成),但是此卷积核不同于之前的卷积核,它的存在是为了学习图片之间的关联关系,比如一定范围内数据之间进行一定数学操作有的关系,这种关系蕴含的信息原大于全连接神经网络所能挖掘的信息,进一步讲通过卷积核的卷积操作帮助网络挖掘到了更加丰富更加有用的信息。而我们所说的特征,只是关联关系的外部表现,比如浅层卷积核提取的特征,由于浅层卷积核更接近原始图像,因此提取的特征更加明显(可能就是我们看到的能理解的关系),但是随着卷积核的加深,深层卷积核提取的信息都是在前一层卷积核提取的信息之上提取的信息,代表着更高纬度,更复杂的信息,这种关联信息已经贴近全局性关联,这种关联信息是我们不能理解的。但是一旦提取出来是起到至关重要的作用的。同时由于卷积核提取出的信息更加丰富更加重要,就不需要像全连接神经网络那样加深层次,而是通过一层全连接层处理前面卷积核带来的信息就可以预测出相关信息。而相关的数据公式就已经奠定了整个网络各个部分的作用,使得卷积部分就是卷积的职能,通过数学公式来实现整个网络的框架。因此提取的特征更加明显(可能就是我们看到的能理解的关系),但是随着卷积核的加深,深
卷积神经网络思考
每个卷积核都在提取一种相关联的局部模式匹配,通过一层卷积层匹配后,提取出了若干种不同的局部特征,后一层卷积层通过对不同的局部特征信息进行提取处理,得到更深的关联信息 最后一层的卷积实际上是对语义特征的提取只不过这种语义特征是由我们人类给出的或者标签给出的语义特征规则,通过前面若干层提取到的客观世界的特征,将该特征所具有的语义特征进行捕获,或者说是我们人类所定义的模式匹配进行匹配,得到最后的输出结果。这样最后一层实际上也是在进行特征提取或模式匹配只不过这种特征和模式是我们训练出来的或者给出的,而不是客观存在的。所谓的规则就是我们给出的数据集的物理特征和人类定义的语义特征 浅层与深层是否真的像解释性一样,是真正的深层的提取的是语义信息吗,这一点是由网络架构决定的,导致浅层次中提取的必然是相关联的浅层次信息,而中层提取的必然是浅层次中提取出的局部信息组合后关联信息,这种信息具有更高的抽象性和维度,而最后一层或者最后几层则是从图像的特征向语义特征的转换,因为语义特征依赖于全局关联性,所以这种依赖导致最后几层的职能。 而卷积核真正提取的特征可能并不是我们直觉上所感受到的特征,其背后必然隐藏着复杂的数学逻辑和模式匹配,只不过这些特征在宏观上的表现就是纹理的组合,眼镜和鼻子的组合信息特征。
卷积预测实际等效于全连接预测
二者在预测方面都是物理关联信息到语义信息的转换,只不过前面的信息来源不一致,全连接层实质上是通过暴力拟合结果曲线的方式进行语义预测,而全连接层相对来讲则是通过一层层深入的特征提取到语义的提取,这种方式需要预测的数据具有局部结构化的特点,通过卷积后提供的信息信息含量更高,更加精准和纯粹(比如通过不断的特征提取提取到了该图片中真实表示的物体的特征),这样的话就只需要把该特征进行转换即可,这种转换比较简单,只需要不多的层数和参数就可以实现
思维误区
每个卷积核卷积的都是不同的特征,不是后面的卷积是对前面提取到的特征的深层提取(比如后面的卷积是为了提取更多的边缘),后面的卷积实际是通过前面提取到的特征的组合后来提取新的更复杂的更高维的特征,逐步抽象。就比如一张图片输入时是正方形的矩阵数字,通过第一层提取到的可能是边缘、皮毛等信息特征,随着感受野的扩大和接受特征信息的变多,后面的卷积层是对前面的特征的组合提取(比如说是鼻子、眼睛),这才是深度网络的本质。 而空间自注意力机制实际上是对提取到的特征也就是通道内部的特征的再一步提取,这种提取可能映射到人的思维就是对于狗鼻子,可能在这一特征内更关注狗鼻尖这种特征。通过这类提取后,可以有效的让后面的预测模型和特征模型进一步提取。
卷积配合方式
后一层的每一个卷积核也就代表着一种关联信息关系的提取,后一层的卷积核通过对前一层每个卷积核输出的不同维度关联信息的提取获取出新的信息,可以看作是后一层的每个卷积核是对前一层不同的特征整合后所能提取到的新的特征。而这种提取从宏观的表现上来看就类似于后一层将前一层的耳朵和眼睛作何在一起得到新的特征。 后面卷积核的感受野实际上是覆盖整个图像的,因为通过前面几层的卷积操作已经将重要信息进行提取核浓缩了,后面的卷积核只需要对这些信息进行提取就能够提取出真实有效的信息。 引入池化层的三个好处:
-
平移不变性:通过引入池化后,可以在保留原有特征的前提下使得后面的卷积更加关注特征而不是空间上的位置
-
降低输入参数:通过池化操作,可以在保证特征的情况下降低输入参数减小计算量
-
扩大感受野:将原本的四个信息合并为一个,使得后面的卷积层有能力接受更多的信息
-
CNN更接近物理世界的层级因果性(如量子→原子→分子→物体)。
-
FCN则像试图直接建立量子态与宏观现象的映射,忽略中间规律。
一些启发思考
为什么卷积核有效?理论解释
(1) 平移不变性(Translation Invariance)
- 卷积核共享权重,假设相同的局部模式在任何位置都有相似意义(如边缘无论在图像左上角还是右下角都应被检测到)。
(2) 局部性(Locality)
- 强制模型优先关注局部邻域内的关系,符合大多数物理/生物系统的短程相互作用假设(如像素相关性随距离衰减)。
(3) 参数效率(Parameter Efficiency)
- 相比全连接层,卷积核通过权重共享大幅减少参数量,避免过拟合,更易学习有意义的局部模式。
一维全连接(FC)的潜在优势
(1) 全局信息无偏访问
- 每个输入单元独立权重:FC层允许任意两个输入节点(如像素、时间点)直接建立专属关联,无论距离多远。示例:在时序预测中,第1天和第100天的数据可以直接通过权重矩阵交互,无需依赖中间节点的传递。
- 示例:在时序预测中,第1天和第100天的数据可以直接通过权重矩阵交互,无需依赖中间节点的传递。
- 无局部性假设:适合数据中长程依赖主导的任务(如文档分类中首尾关键词的关系)。
(2) 信息无损传递
- 原始数据的绝对数值信息(如某个像素的精确亮度)可直接传递到后续层,不会被局部加权平均模糊。
(3) 理论上的完备性
- FC层可以表示任意连续函数(Universal Approximation Theorem),而卷积层受限于局部感受野。
卷积的妥协与代价
(1) 局部性假设的局限性
- 长程依赖需多层传递:例如,图像中左上角和右下角物体的关系需经过数十层卷积才能交互,可能导致信息衰减。
- 不适合非局部关联数据:如社交网络中两个相隔很远的用户可能直接相关(共同好友)。
(2) 信息平滑化
- 卷积的加权平均操作会弱化异常值:某个像素的极端值可能被周围像素“稀释”。对比:FC层可通过特定权重直接保留该异常值的影响。
- 对比:FC层可通过特定权重直接保留该异常值的影响。
(3) 结构偏置的副作用
- 强制共享权重(平移不变性)可能抑制独特模式:如人脸检测中,左眼和右眼的卷积核相同,但实际分布可能有差异。
传统神经网络学习的可解释性,全连接层网络的本质其实也是模式匹配或者概率匹配建模,但是它通过对一维化的数据进行建模相比于卷积神经网络的效率更加低下,不过并不代表它不具有卷积的能力,当数据量爆炸时,它能够直接学习全局的特征关系,这种学习可能更加有效更加存粹,卷积可以看作是一种取巧的这种方案,因为可以通过少量数据得到这种效果,理论上全连接网络可以模拟任何其它网络的效果,只是数据的量不到位
1. 卷积核的真实行为:数学本质 vs 人类直觉
(1) 数学视角:局部模式的匹配器
- 卷积运算的本质是输入数据与卷积核的点积相似度计算:Feature Map(x,y)=∑i,jInput(x+i,y+j)⋅Kernel(i,j)Feature Map(x,y)=i,j∑Input(x+i,y+j)⋅Kernel(i,j)每个卷积核实际上是在检测输入中与其权重模式最相似的局部区域。关键点:这种“相似性”由损失函数驱动,未必对应人类理解的语义。
- 每个卷积核实际上是在检测输入中与其权重模式最相似的局部区域。
- 关键点:这种“相似性”由损失函数驱动,未必对应人类理解的语义。
(2) 认知视角:从统计相关性到语义映射
- 浅层卷积核(如边缘检测)可能接近人类视觉系统的低级特征(类似Hubel-Wiesel理论中的简单细胞)。
- 深层卷积核的响应模式更复杂,但它们的“语义性”实际是数据分布与标签规则的统计映射结果:例如:某个深层核可能对“猫耳”激活,并非因为它“理解”猫耳,而是因为该模式在训练数据中与“猫”标签共现频率高。
- 例如:某个深层核可能对“猫耳”激活,并非因为它“理解”猫耳,而是因为该模式在训练数据中与“猫”标签共现频率高。
(3) 实验证据
- 激活最大化(Activation Maximization)生成的图像显示:浅层核偏好简单边缘/纹理。深层核可能生成混合模式(如同时包含“车轮”和“车窗”的抽象纹理),难以用单一语义解释。
- 浅层核偏好简单边缘/纹理。
- 深层核可能生成混合模式(如同时包含“车轮”和“车窗”的抽象纹理),难以用单一语义解释。
2. 层级抽象的真实性:架构约束 vs 自由学习
(1) 网络架构的诱导偏置
- 卷积的局部性强制网络从局部到全局逐步组合信息,但层级抽象程度并非绝对:实验表明,通过改变训练目标(如自监督学习),同一层卷积可能学习不同抽象级别的特征。例如:SimCLR训练的浅层卷积可能直接捕获高级语义(因对比学习需要全局一致性)。
- 实验表明,通过改变训练目标(如自监督学习),同一层卷积可能学习不同抽象级别的特征。
- 例如:SimCLR训练的浅层卷积可能直接捕获高级语义(因对比学习需要全局一致性)。
(2) 语义特征的“涌现”机制
- 深层卷积的“语义性”是组合爆炸的结果:假设每层卷积组合前一层3×3区域的模式,则第nn层的感受野覆盖的原始输入区域为3n3n。当nn足够大时(如ResNet-50的最后一层感受野为整个图像),局部运算实际上已能捕获全局上下文。
- 假设每层卷积组合前一层3×3区域的模式,则第nn层的感受野覆盖的原始输入区域为3n3n。
- 当nn足够大时(如ResNet-50的最后一层感受野为整个图像),局部运算实际上已能捕获全局上下文。
(3) 反例:非层级抽象的网络
- Vision Transformers(ViT)通过自注意力直接建模全局关系,其浅层注意力头可能同时关注低级纹理和高级语义,打破CNN的层级假设。
3. 语义规则的来源:数据驱动 vs 人类先验
(1) 标签规则的数学表达
- 最后一层卷积的输出通过全连接/GAP映射到标签空间,实质是求解:P(y∣x)=Softmax(W⋅Conv(x)+b)P(y∣x)=Softmax(W⋅Conv(x)+b)矩阵WW的每一行可视为对卷积特征的“语义分类器”,其权重由人类定义的标签决定。
- 矩阵WW的每一行可视为对卷积特征的“语义分类器”,其权重由人类定义的标签决定。
(2) 语义的脆弱性
- 对抗样本表明:网络依赖的“语义特征”可能是数据中的非鲁棒相关性(如背景纹理与标签的虚假关联)。
- 风格迁移实验显示:将内容图像的深层特征与风格图像的浅层特征结合,生成的图像仍具有语义一致性,说明深层特征并非纯粹语义。
4. 重新思考“特征提取”的表述
更准确的描述可能是:
- 卷积核是任务相关的模式优化器:它们学习最小化损失函数的最有效局部模式,这些模式:在简单任务中可能巧合地对应人类特征(如边缘)。在复杂任务中可能是人类无法理解的统计组合(如高频噪声的特定相位)。
- 在简单任务中可能巧合地对应人类特征(如边缘)。
- 在复杂任务中可能是人类无法理解的统计组合(如高频噪声的特定相位)。
- 语义是交互的产物:网络的“语义理解”存在于人类观察者与模型行为的交互中,而非模型内部。例如:当深层卷积对“狗脸”激活时,我们称其检测“狗脸”,实际是它找到了与狗标签统计关联的像素组合。
- 当深层卷积对“狗脸”激活时,我们称其检测“狗脸”,实际是它找到了与狗标签统计关联的像素组合。
5. 对网络设计的启示
(1) 避免过度拟人化解释
- 将卷积核视为“检测器”可能误导设计,应更多关注其数学行为:例如:用互信息(Mutual Information)量化卷积核与标签的真实关联强度。
- 例如:用互信息(Mutual Information)量化卷积核与标签的真实关联强度。
(2) 动态特征抽象
- 引入注意力机制(如SENet)或动态卷积,让网络自行决定每层所需的抽象级别。
(3) 分离特征与决策
- 两阶段训练:自监督学习提取通用特征(避免标签干扰)。冻结特征层,仅训练分类头(保护特征完整性)。
6. 未来方向:超越“特征提取”范式
- 因果表示学习:显式建模特征与标签的因果关系,而非统计相关性。
- 符号-神经结合:用符号逻辑约束卷积核的行为(如“如果检测到车轮,则必须检测车窗”)。