正在加载图片...
n为输入图像中的像素点,w,为大小为(u,)的卷积核,y2为卷积输出,b为卷积 偏置,∫为激活函数,由此可得: y=f(∑∑v bu) 池化层通常在卷积层之后,用来对卷积层输出的特征向量降维。池化的过程如图2所示: 图2池化过程示例(步长为2) max(an)y=min(an)y=∑an(u,T∈R 池化层通过对特定范围的相邻元素取最大值、最小值或平均值等操作,将特征图的尺寸 减小,这一过程也可以通过步长大于1的卷积过程实现。输入图像经过卷积层和池化层,网 络提取的特征图数量增加,尺寸减小。上采样可以看作卷积或池化的逆过程,对特征图进行 插值放大。上采样包含两种方式 a000 00b0 为为为x[为2y 000d y c000 xx。x1x12 v yo yulon2 对x15x13y15 图3上采样的两种方式 第一种方(图3a)通过保存的池化层的坐标信息,将小尺寸的特征图反向映射到大尺寸 的特征图中。第二种方式(图3b)对特征图进行卷积逆运算,得到新的大尺寸的特征图,并将 其与卷积层对应尺寸的特征图相加作为上采样结果 激活函数和损失函数是神经网络的使能结构。激活函数的非线性特征映射作用使神经网 络具备学习和提取目标的复杂特征的能力。常用的激活函数有 sigmoid、tanh、relu(图2)。 sigmoid (x)= I+e-r Jah(x)=e -er fl, (x)=max(o, x) 损失函数是引导卷积网络进行特征学习的结构。损失函数可以为MSE、MAE,欧式距离、 余弦距离等。通过损失函数计算前向网络输出结果与标签值的差,采用反向传播算法,调整ast 为输入图像中的像素点, wij 为大小为(,) u v 的卷积核, st y 为卷积输出,bst 为卷积 偏置, f 为激活函数,由此可得: , 1 1 ( ) u v st ij s i u t j v st i j y f wa b −+ − + = = = ∑∑ + 池化层通常在卷积层之后,用来对卷积层输出的特征向量降维。池化的过程如图2所示: 图2 池化过程示例(步长为2) max( ) ij uv y a = min( ) ij uv y a = 1 ij uv y a u v = + ∑ (uv R , ∈ ) 池化层通过对特定范围的相邻元素取最大值、最小值或平均值等操作,将特征图的尺寸 减小,这一过程也可以通过步长大于1的卷积过程实现。输入图像经过卷积层和池化层,网 络提取的特征图数量增加,尺寸减小。上采样可以看作卷积或池化的逆过程,对特征图进行 插值放大。上采样包含两种方式: 图3 上采样的两种方式 第一种方(图3 a)通过保存的池化层的坐标信息,将小尺寸的特征图反向映射到大尺寸 的特征图中。第二种方式(图3 b)对特征图进行卷积逆运算,得到新的大尺寸的特征图,并将 其与卷积层对应尺寸的特征图相加作为上采样结果。 激活函数和损失函数是神经网络的使能结构。激活函数的非线性特征映射作用使神经网 络具备学习和提取目标的复杂特征的能力。常用的激活函数有sigmoid、tanh、relu(图2)。 sigmoid 1 ( ) 1 x f x e− = + tanh ( ) x x x x e e f x e e − − − = + ( ) max(0, ) relu fx x = 损失函数是引导卷积网络进行特征学习的结构。损失函数可以为MSE、MAE,欧式距离、 余弦距离等。通过损失函数计算前向网络输出结果与标签值的差,采用反向传播算法,调整
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有