当前位置: 首页 > news >正文

物联网 网站开发外贸免费平台

物联网 网站开发,外贸免费平台,越秀网站建设设计,小规模企业所得税优惠政策文章目录 1.介绍2.基本原理3.两种残差块4.网络结构 论文#xff1a;Deep Residual Learning for Image Recognition   论文链接#xff1a;Deep Residual Learning for Image Recognition   代码链接#xff1a;Github 1.介绍 在ResNet网络提出之前#xff0c;传统的卷… 文章目录 1.介绍2.基本原理3.两种残差块4.网络结构 论文Deep Residual Learning for Image Recognition   论文链接Deep Residual Learning for Image Recognition   代码链接Github 1.介绍 在ResNet网络提出之前传统的卷积神经网络都是通过将一系列卷积层与下采样层进行堆叠得到的。但是当堆叠到一定网络深度时就会出现两个问题 梯度消失/梯度爆炸。退化问题。 其中在论文中针对两个问题提出了如下解决方案 1.梯度消失/梯度爆炸可通过数据预处理及在网络中使用 B a t c h N o r m a l i z a t i o n Batch\;Normalization BatchNormalization来解决。2.退化问题随着网络层数的加深效果会变差如上图所示本文提出了残差结构 R e s i d u a l B l o c k Residual\;Block ResidualBlock进行解决。 残差块设计的基本思想是人为地让神经网络某些层跳过下一层神经元的连接通过隔层相连来弱化每层之间的强联系这种网络结构称为残差网络 R e s N e t s ResNets ResNets。效果如下图所示可见随着网络的不断加深效果并没有变差而是变的更好了。 2.基本原理 残差指的是输入特征 x x x与经过卷积模块提取的特征 H ( x ) H(x) H(x)之间的差值。网络深度的增加却使得模型性能下降说明增加的层并不能学习到新的特征甚至会导致原始特征的丢失。而若能保证即使新增加的层未学习到任何内容但也能复制浅层网络学习到的特征相当于浅层网络的恒等映射此时深层网络的性能与浅层网络相同也就解决了残差问题。   传统的CNN网络如左图所示 C o n v R e L U C o n v ConvReLUConv ConvReLUConv 其输出可定义为 H ( x ) C o n v ( R e L U ( C o n v ( x ) ) ) H(x)Conv(ReLU(Conv(x))) H(x)Conv(ReLU(Conv(x)))而残差网络的结构如下图所示 与普通CNN网络结构相比残差网络增加了跳跃连接 s k i p c o n n e c t i o n skip\;connection skipconnection将输入 x x x恒等映射到第二个激活函数之前与 F ( x ) C o n v ( R e L U ( C o n v ( x ) ) ) F(x)Conv(ReLU(Conv(x))) F(x)Conv(ReLU(Conv(x)))之间相加假设 w e i g h t l a y e r C o n v weight\;layerConv weightlayerConv。通过这种操作使得网络在最差的情况下也能获得和输入一样的输出即增加的层什么也不学习仅仅复制输入的特征至少使得网络不会出现退化的问题。 3.两种残差块 R e s N e t ResNet ResNet中一共有两种残差块结构 其中左侧的残差结构常用于层数较少的 R e s N e t ResNet ResNet中如例如ResNet18层和ResNet34层网络。而右侧则常用于层数较多的 R e s N e t ResNet ResNet中。这是因为右侧的残差结构能够减少网络参数与运算量。同样输入一个channel为256的特征矩阵如果使用左侧的残差结构需要大约1170648个参数但如果使用右侧的残差结构只需要69632个参数。 【残差结构一】   上图中左侧的残差块结构用于 R e s N e t 18 − l a y e r 、 34 − l a y e r ResNet\;18-layer、34-layer ResNet18−layer、34−layer网络中其主分支由两个3x3的卷积层组成而右侧的分支结构则实现 x x x的恒等映射。   在 R e s N e t 34 − l a y e r ResNet\;34-layer ResNet34−layer中有一些恒等映射使用虚线连接的残差结构如 其真实结构如上图右侧所示此时恒等映射需要通过卷积核1x1大小、步长为2、个数为128的卷积层来调整 x x x的形状使之能够与 F ( x ) F(x) F(x)进行相加。 【残差结构二】   上图左侧的残差块结构用于 R e s N e t 50 − l a y e r 、 101 − l a y e r 、 152 − l a y e r ResNet\;50-layer、101-layer、152-layer ResNet50−layer、101−layer、152−layer中主分支中共有三个卷积层其中第一个卷积层用于压缩输入矩阵的通道数第三个卷积层则将通道数还原回原始大小。   这些网络中同样有一些恒等映射使用虚线连接的残差结构具体实现方式如右图所示。其并不直接进行恒等映射而是使用1x1的卷积块调整输入矩阵的通道数使能够与 F ( x ) F(x) F(x)正常相加来实现恒等映射。例如 R e s N e t 50 − l a y e r ResNet\;50-layer ResNet50−layer的 B o t t l e n e c k Bottleneck Bottleneck代码实现 class Bottleneck(nn.Module):def __init__(self, inplanes, planes, stride1, downsampleNone, dilation1):#inplanes:输入通道数;planes:输出通道数;stride:步幅;downsample:下采样层;dilation:膨胀系数super(Bottleneck, self).__init__()#1×1卷积self.conv1 nn.Conv2d(inplanes, planes, kernel_size1, biasFalse)self.bn1 nn.BatchNorm2d(planes)#3×3卷积self.conv2 nn.Conv2d(planes, planes, kernel_size3, stridestride, padding(3*dilation-1)//2, biasFalse, dilationdilation)self.bn2 nn.BatchNorm2d(planes)#1×1卷积self.conv3 nn.Conv2d(planes, planes*4, kernel_size1, biasFalse)self.bn3 nn.BatchNorm2d(planes*4)#下采样(若步幅不为1或输入通道数与目标通道数不匹配,则进行下采样)self.downsample downsampledef forward(self, x):residual x#1×1卷积out F.relu(self.bn1(self.conv1(x)), inplaceTrue)#3×3卷积out F.relu(self.bn2(self.conv2(out)), inplaceTrue)#1×1卷积out self.bn3(self.conv3(out))#若不能直接将x与特征残差连接,则需下采样(对应虚线部分)if self.downsample is not None:residual self.downsample(x)#残差连接return F.relu(outresidual, inplaceTrue)而downsample在网络中的实现为 if stride ! 1 or self.inplanes ! planes*4:#使用1×1卷积和批量归一化进行下采样downsample nn.Sequential(nn.Conv2d(self.inplanes, planes*4, kernel_size1, stridestride, biasFalse), nn.BatchNorm2d(planes*4))4.网络结构 下面这幅图是原论文给出的不同深度的ResNet网络结构配置表中的残差结构给出了主分支上卷积核的大小与卷积核个数其中 x N xN xN表示将该残差结构重复N次。   在 R e s N e t 18 − l a y e r 、 34 − l a y e r 、 50 − l a y e r 、 101 − l a y e r 、 152 − l a y e r ResNet\;18-layer、34-layer、50-layer、101-layer、152-layer ResNet18−layer、34−layer、50−layer、101−layer、152−layer中 c o n v 3 _ x 、 c o n v 4 _ x 、 c o n v 5 _ x conv3\_x、conv4\_x、conv5\_x conv3_x、conv4_x、conv5_x对应的残差链指由多个残差块连接而成结构中第一层均使用带虚线的残差块来调整输入矩阵的形状将输入矩阵的高和宽缩减为原来的一半将图像通道数调整成下一层残差结构所需要的通道数。例如 34 − l a y e r 34-layer 34−layer的结构如下图所示   而在 R e s N e t 50 − l a y e r 、 101 − l a y e r 、 152 − l a y e r ResNet\;50-layer、101-layer、152-layer ResNet50−layer、101−layer、152−layer中其 c o n v 2 _ x conv2\_x conv2_x结构的第一层也是虚线残差块结构其需要调整输入特征矩阵的通道数。
http://www.dnsts.com.cn/news/255424.html

相关文章:

  • 静态网站怎么做中国前十大投资公司
  • 做ar网站wordpress博客统计代码
  • 企业做宣传网站多少钱企业展厅设计图片欣赏
  • 如何建设自己的网站 知乎付费推广的平台
  • 上海达安做的无创dna网站机关事业单位 网站建设方案书
  • 用ps做网站广告图学设计去哪个培训好
  • 培训学校网站网站建设项目运营岗
  • 域名查询网站入口个人域名wordpress突然连不上
  • 找外国男人做老公网站数码产品网站开发背景
  • 杭州网站建设的公司给我免费播放在线
  • 网站建设先修课程镇江网站建设 找思创
  • 网站服务器宽带外贸 wordpress模板
  • 成都网站建设公司是什么意思宁波网站建设就找荣胜
  • 门户网站制作需要多少钱wordpress外观
  • 安徽省住房城乡建设厅官方网站建设银行网站支付限额怎么办
  • 经营性质网站备案wordpress wordcloud
  • 哪个网站做外贸比较好商丘市网站建设公司
  • 做一个网站首页多少钱网站建设图片居中代码
  • 常德网站开发哪家好番禺区画册设计公司
  • 建设网站费用入会计分录请问有没有做网站
  • 大连市平台网站企业融资需求怎么写
  • 南宁网站优化排名推广做网站浏览器
  • 西安网站建设xs029wordpress绑定外部域名
  • 高端企业站苏州官网设计
  • 母婴类网站怎么建设投资公司怎么运作
  • 快速生成网站wordpress使用又拍云后
  • 网站代码加密了怎么做跨境电子商务
  • 公众号的制作方法和步骤整站seo优化哪家好
  • 沈阳在线制作网站管理系统论文
  • 网站建设评审表wordpress注册关键词