首页IT科技残差网络模型(残差网络(Residual Network,ResNet)原理与结构概述)

残差网络模型(残差网络(Residual Network,ResNet)原理与结构概述)

时间2025-09-19 10:44:54分类IT科技浏览6849
导读: 残差网络是为了解决模型层数增加时出现梯度消失或梯度爆炸的问题而出现的。传统的神经网络中,尤其是图像处理方面,往往使用非常多的卷积层、池化层等,每一层都是从前一层提取特征,所以随着层数增加一般会出现退化等问题。残差网络采取跳跃连接的方法避免了深层神经网络带来的一系列问题。...

  残差网络是为了解决模型层数增加时出现梯度消失或梯度爆炸的问题而出现的                  。传统的神经网络中                 ,尤其是图像处理方面                            ,往往使用非常多的卷积层                 、池化层等        ,每一层都是从前一层提取特征            ,所以随着层数增加一般会出现退化等问题                         。残差网络采取跳跃连接的方法避免了深层神经网络带来的一系列问题          。

一:对模型原理与优点的理解

  首先                            ,我们把网络层看成是映射函数              。(1)在传统的前馈网络中            ,网络中堆叠的层可以将输入x映射为F(x)        ,这一整体网络的输出为H(x)                            ,F(x)=H(x)                        。但是对于恒等映射函数f(x)=x                 ,即网络的输入与输出相等    ,直接让这样的层去拟合这样的恒等映射函数会很困难                           ,不过f(x)=0还是比较容易训练拟合的              。(2)所以我们可以让输出H(x)=F(x)+x                      ,这样如果整体网络H(x)需要是恒等映射,只需要把堆叠层拟合成F(x)=0即可          。

  从另一角度考虑                      ,在以往的网络中                           ,都试图通过堆叠不同的层找到可将输入x映射为输出H(x)的函数    ,而残差网络的目的并不是学习x到H(x)的映射                 ,而是x与H(x)的不同                            ,这也正是“残差                  ”一词名称由来                         。残差F(x)=H(x)-x        ,所以我们尝试学习F(x)+x            ,而不是像(1)直接学习H(x)                  。(这样解释或许有些牵强                            ,但事实的确如此     。)

  当然            ,还有一种说法是拟合H(x)-x与(1)中那样直接拟合F(x)相比更简单        ,这和开始部分提到的恒等映射函数不好优化这种说法是一致的                          。

  对于模型优点原理的各种解释并不是模型的重心                            ,毕竟这些解释建立在实验事实之上                 ,如果这样的模型并不理想    ,一切解释都是徒劳的                           ,不过这些内容有助于我们对这一类网络的构想过程的理解                      。

二:模型结构

  ResNet的种类是很多的                      ,如ResNet-18,ResNet-34                      ,ResNet-50                           ,ResNet-101    ,ResNet152等。但是它们的基本结构都是相同的——由多层相同的ResNet block重复堆叠而成                      。ResNet block特点是由若干层网络(这里表示为Layers)组成                 ,输出为网络的输出与输入的加和                          。

 上图表示一个ResNet block                            ,下图为重复的结构     。

 这里的加是两个张量相加                  。所以我们要保证x与layers后的输出形状相同        ,否则无法相加                         。这取决于Layers内部结构          。在图像处理方面            ,常用的是采取卷积核为3                            ,padding为1的两个卷积层处理            ,这样可以不改变张量形状              。

  当然        ,理论上ResNet block只要保证输出形状与输入形状相同即可                        。所以我们可以根据实际需要以及卷积层                            、池化层等输出输入维度计算公式来设计ResNet block              。但是一般ResNet block内部不会有太多结构                            ,毕竟一般都是用它来实现深层网络                 ,使用时一般会使用几个或数十个这样的block          。

三:ResNet block的其它结构

  (二)中讲解的结构是最ResNet block中最基本的一种    ,即输入与输出直接相加                         。但实际的连接方式可以是多种多样的                  。在百度百科中介绍有以下六种                           ,其中的a对应前面(二)     。后面的五种虽然稍显复杂                      ,但总体结构基本相同,最终也都是形状相同的张量相加                          。

三:关于跳跃连接(skip connection)                      ,残差连接(residual connection)与捷径连接(shoutcut connection)的一些问题

  这几个词在ResNet        、Inception            、DenseNet等文章中很常见                      。兔兔在前面只是说输入与输出相加                           ,实际这个过程就是连接。有人说只要是模型内两个位置的连接即为跳跃连接    ,跳跃连接(skip connection)是很广泛的概念;残差连接(residual connection)是残差网络中的跳跃连接                 ,也就是跳跃连接在残差网络中叫做残差连接(毕竟残差网络有一特点                            ,所有的连接都是有规律的        ,是一块一块地连接)                      。而捷径连接(shortcut connection)可以理解为绕过中间的层去和后面输出连接            ,本质上体现的也是残差连接这个过程;也有人说捷径连接这个称呼可以理解为跳跃连接和残差连接最早定义                            ,当时还是上个世纪            ,人工智能发展缓慢        ,人们使用这种连接主要用于全连接层网络;但是目前来看                            ,这三种东西是用一个事物的不同称呼                 ,只不过侧重点不同而已                          。

四:算法实现

如果直接使用ResNet模型    ,可以调用torchvision库     。

from torchvision.models.resnet import resnet18 resnet18=resnet18() print(resnet18)

上述代码可以查看模型内部结构                           ,并且该模型可以直接进行训练                      ,或者作为其它网络的一部分                  。

下面兔兔以(二)为例,简要地实现该部分                      ,代码如下                         。

from torch import nn from torch.nn import functional as F class ResNetBlock(nn.Module): def __init__(self): super(ResNetBlock, self).__init__() self.conv1=nn.Conv2d(kernel_size=3,in_channels=4,out_channels=3,padding=1) self.conv2=nn.Conv2d(kernel_size=4,in_channels=3,out_channels=3,padding=1) self.bn1=nn.BatchNorm2d(4) self.bn2=nn.BatchNorm2d(3) def forward(self,input): x0=input x=F.relu(self.bn1(self.conv1(x0))) x=self.bn2(self.conv2(x)) x=x+x0 return x0 class ResNet(nn.Module): def __init__(self,n_blocks): super(ResNet, self).__init__() self.n_blocks=n_blocks self.resnet_block=ResNetBlock() def forward(self,input): for i in range(self.n_blocks) x=self.resnet_block(input) input=x return input

五:总结

  ResNet内部使用多个具有残差连接的残差块来解决梯度消失或梯度爆炸问题                           ,并使得网络可以向更深层发展          。

创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!

展开全文READ MORE
vue生命周期的八个步骤(【学vue跟玩一样】快速学会常用指令及如何理解生命周期)