‘壹’ 卷积层在神经网络中如何运算
卷积神经网络(Convolutional Neural Networks, CNN)的核心是进行卷积运算操作。在实际应用中往往采用多层网络结构,因此又被称为深度卷积神经网络。本文将从单个卷积的计算出发,带大家掌握卷积层在神经网络中的运算方法。
2.1 单个卷积的计算
要想了解卷积层在神经网络中的计算过程,我们首先需要了解单个“卷积”是如何运作的。
想必大家在学习CNN的过程中都见过下图( 出处在此 ,这上面有各种各样的卷积gif图):
input_shape=(5,5),kernelsize=(3,3),padding=‘same’,stride=1,output_shape=(5,5)
在此图中:
在此次计算中:
Ps: 在实际应用中,每一个输出的特征图还会配备一个偏置s,在上图中无表示。
2.2 卷积层在神经网络中的运算
了解完单个卷积是如何计算的之后,我们就可以从神经网络的角度来看‘卷积层’的运算过程了。下图展示的是输入三通图像(8*8*3)经一层卷积结构,输出两通特征图(8*8*2)的计算过程:
卷积参数:input_shape=(8,8,3),kernelsize=(3,3),padding=‘same’,stride=1,output_shape=(8,8,2)
在此图中:
在此次卷积层的运算中:
首先我们来关注一下输入和输出,他俩的尺度都是(8*8),而输入是3通道,输出是2通道(深度学习中不管干啥一定要先看输入输出,对一层是这样,对整个模型也是这样)。
其次就准备进入我们最熟悉的卷积核计算了,可是在此之前我们得知道,这个运算过程中到底发生了几次卷积核计算呢?有的朋友可能要说,卷积的一大特性就是‘权值共享’,有几通输出就有几个卷积核,每个卷积核把输入特征图从头扫到尾。然而这个其实是不对的!
实际上,在卷积核计算数量问题上,应该是“ 有几通道的输出就有几套卷积核,每套内的卷积核数量与输入通道数相等 ”,就像我在上图中所画的:
至此,这一个卷积层的运算就全部完成了。
2.3 “可训练参数”验证
毕竟空口无凭,下面我来通过“ 可训练参数 ”的数量,来为大家验证一下卷积层是不是按我说的这么运算的。大家应该知道,一个卷积层内的“可训练参数”,其实就是指的卷积核里的那些值,以及要加的偏置量,那么如果按照前面描述的计算方法来看,一个卷积层内的“可训练参数有多少呢”?我们可知:
由此可得到:
那么按理说可训练参数量应为:
让我们用keras的summary()来验证一下:
很棒!
记住,普通卷积层的可训练参数量为:
Ps: 还有一个衡量模型大小、复杂度的量叫做“理论计算量FLOPs”(floating point operations)。它通常只考虑Conv、FC等参数层的乘、加操作的数量,并且“纯加”操作也会被忽略(例如bias)。卷积层运算中的FLOPs计算公式为:
Ps: 这里还要为大家明确一个“感受野”的概念,简单来讲就是卷积神经网络中的某一层特征图上的一个点,对应到原图上可以关联到多少个点,我们用一张图来解释一下:
上图展示的是一个3层一维卷积,kernel_size=3,我们可以看到:顶层左一的像素与底层左起7个像素值有关,这时候就代表它的感受野有7。我们可以显而易见的得出以下两个结论:
这个感受野在后续的卷积的拆分讲解中还要用到。
‘贰’ 【神经网络-卷积】常规卷积、空洞卷积、多尺度卷积、分组卷积、可分离卷积、DCN形变卷积
卷积是神经网络中提取特征的主要手段。其基本目的是从输入图像中提取不同特征,进而构建抽象的高层语义特征或全局特征,以提升模型的精度或推理速度。卷积的实现方式包括常规卷积、空洞卷积、多尺度卷积、分组卷积、可分离卷积以及形变卷积(DCN)。
常规卷积是基础形式,通过卷积核在图像上滑动并计算对应元素的乘积和,实现特征提取。它的关键参数包括卷积核尺寸、填充和步长。计算公式依据这些参数进行输出尺寸的计算。
空洞卷积,也称为膨胀卷积,通过在卷积核中插入空洞来扩大感受野,增强模型在不同尺度特征上的捕捉能力。空洞率决定了空洞的数量,进而影响感受野的大小。在语义分割任务中,如Deeplab系列,空洞卷积效果显着。
多尺度卷积针对输入图像中目标尺寸的变化,通过多个分支卷积提取不同感受野的特征。减少计算量的优化方法是引入1×1卷积,但手工设计痕迹明显。Inception系列即是多尺度卷积的应用。
分组卷积旨在减少参数量和计算量。它将输入特征图的channel分组,进行局部卷积后拼接,但存在信息流通不畅的问题。为解决这一问题,可采用通道混洗技术,如ShuffleNet网络结构。
可分离卷积通过将原始卷积拆解为1×n和n×1两个步骤,分别进行逐层卷积和逐点卷积,从而显着降低计算量。Depthwise Convolution聚焦于通道内信息处理,Pointwise Convolution负责跨通道融合。移动设备上的网络,如MobileNet,广泛采用此技术。
形变卷积(DCN)针对目标检测场景,通过学习采样点的偏移,以适应不同形状的目标。DCN在目标检测应用中,如DCN v1和DCN v2模块,展现了优越性能,但计算成本较高,且难以实现tensorRT加速。
综上所述,卷积及其变体在神经网络中扮演着核心角色,通过不同方法优化参数量、计算效率以及特征提取能力,以适应不同的应用场景和需求。