当前位置: 首页 > news >正文

网站推广行业赚钱吗泸州网站seo

网站推广行业赚钱吗,泸州网站seo,深圳华强北附近租房哪里便宜,wordpress原始分页共目录 1.全连接层存在的问题2.卷积运算3.填充(padding)3.1填充(padding)的意义 4.步幅(stride)5.三维数据的卷积运算6.结合方块思考7.批处理8.conv2d代码参考文章 1.全连接层存在的问题 在全连接层中#xff0c;相邻层的神经元全部连接在一起#xff0c;输出的数量可以任意决… 目录 1.全连接层存在的问题2.卷积运算3.填充(padding)3.1填充(padding)的意义 4.步幅(stride)5.三维数据的卷积运算6.结合方块思考7.批处理8.conv2d代码参考文章 1.全连接层存在的问题 在全连接层中相邻层的神经元全部连接在一起输出的数量可以任意决定。全连接层存在什么问题呢那就是数据的形状被“忽视”了。比如输入数据是图像时图像通常是高、长、通道方向上的3维形状。但是向全连接层输入时需要将3维数据拉平为1维数据。实际上前面提到的使用了MNIST数据集的例子中输入图像就是1通道、高28像素、长28像素的1, 28, 28形状但却被排成1列以784个数据的形式输入到最开始的Affine层。图像是3维形状这个形状中应该含有重要的空间信息。比如空间上邻近的像素为相似的值、RBG的各个通道之间分别有密切的关联性、相距较远的像素之间没有什么关联等3维形状中可能隐藏有值得提取的本质模式。但是因为全连接层会忽视形状将全部的输入数据作为相同的神经元同一维度的神经元处理所以无法利用与形状相关的信息。而卷积层可以保持形状不变。当输入数据是图像时卷积层会以3维数据的形式接收输入数据并同样以3维数据的形式输出至下一层。因此在CNN中可以有可能正确理解图像等具有形状的数据。另外CNN 中有时将卷积层的输入输出数据称为特征图feature map。其中卷积层的输入数据称为输入特征图input feature map输出数据称为输出特征图output feature map。本文中将“输入输出数据”和“特征图”作为含义相同的词使用. 2.卷积运算 卷积层进行的处理就是卷积运算。卷积运算相当于图像处理中的“滤波器运算”。在介绍卷积运算时我们来看一个具体的例子图7-3。 如图7-3所示卷积运算对输入数据应用滤波器。在这个例子中输入数据是有高长方向的形状的数据滤波器也一样有高长方向上的维度。假设用height, width表示数据和滤波器的形状则在本例中输入大小是(4, 4)滤波器大小是(3, 3)输出大小是(2, 2)。另外有的文献中也会用“核”这个词来表示这里所说的“滤波器”。现在来解释一下图7-3的卷积运算的例子中都进行了什么样的计算。图7-4中展示了卷积运算的计算顺序。对于输入数据卷积运算以一定间隔滑动滤波器的窗口并应用。这里所说的窗口是指图7-4中灰色的3 × 3的部分。如图7-4所示将各个位置上滤波器的元素和输入的对应元素相乘然后再求和有时将这个计算称为乘积累加运算。然后将这个结果保存到输出的对应位置。将这个过程在所有位置都进行一遍就可以得到卷积运算的输出。在全连接的神经网络中除了权重参数还存在偏置。CNN中滤波器的参数就对应之前的权重。并且CNN中也存在偏置。图7-3的卷积运算的例子一直展示到了应用滤波器的阶段。包含偏置的卷积运算的处理流如图7-5所示。如图7-5所示向应用了滤波器的数据加上了偏置。偏置通常只有1个1 × 1本例中相对于应用了滤波器的4个数据偏置只有1个这个值会被加到应用了滤波器的所有元素上。 3.填充(padding) 在进行卷积层的处理之前有时要向输入数据的周围填入固定的数据比如0等这称为填充padding是卷积运算中经常会用到的处理。比如在图7-6的例子中对大小为(4, 4)的输入数据应用了幅度为1的填充。“幅度为1的填充”是指用幅度为1像素的0填充周围。 如图7-6所示通过填充大小为(4, 4)的输入数据变成了(6, 6)的形状。然后应用大小为(3, 3)的滤波器生成了大小为(4, 4)的输出数据。这个例子中将填充设成了1不过填充的值也可以设置成2、3等任意的整数。在图7-5的例子中如果将填充设为2则输入数据的大小变为(8, 8)如果将填充设为3则大小变为(10, 10) 3.1填充(padding)的意义 使用填充主要是为了调整输出的大小。比如对大小为(4, 4)的输入数据应用(3, 3)的滤波器时输出大小变为(2, 2)相当于输出大小比输入大小缩小了 2个元素。这在反复进行多次卷积运算的深度网络中会成为问题。为什么呢因为如果每次进行卷积运算都会缩小 空间那么在某个时刻输出大小就有可能变为 1导致无法再应用卷积运算。为了避免出现这样的情况就要使用填充。在刚才的例子中将填充的幅度设为 1那么相对于输入大小(4, 4)输出大小也保持为原来的(4, 4)。因此卷积运算就可以在保持空间大小不变 的情况下将数据传给下一层。 4.步幅(stride) 在图7-7的例子中对输入大小为(7, 7)的数据以步幅2应用了滤波器。通过将步幅设为2输出大小变为(3, 3)。像这样步幅可以指定应用滤波器的间隔。综上增大步幅后输出大小会变小。而增大填充后输出大小会变大。如果将这样的关系写成算式会如何呢接下来我们看一下对于填充和步幅如何计算输出大小。这里假设输入大小为(H, W)滤波器大小为(FH, FW)输出大小为(OH, OW)填充为P步幅为S。此时输出大小可通过式(7.1)进行计算。 5.三维数据的卷积运算 之前的卷积运算的例子都是以有高、长方向的2维形状为对象的。但是图像是3维数据除了高、长方向之外还需要处理通道方向。这里我们按照与之前相同的顺序看一下对加上了通道方向的3维数据进行卷积运算的例子。图7-8是卷积运算的例子图7-9是计算顺序。这里以3通道的数据为例展示了卷积运算的结果。和2维数据时图7-3的例子相比可以发现纵深方向通道方向上特征图增加了。通道方向上有多个特征图时会按通道进行输入数据和滤波器的卷积运算并将结果相加从而得到输出。 需要注意的是在3维数据的卷积运算中输入数据和滤波器的通道数要设为相同的值。在这个例子中输入数据和滤波器的通道数一致均为3。滤波器大小可以设定为任意值不过每个通道的滤波器大小要全部相同。这个例子中滤波器大小为(3, 3)但也可以设定为(2, 2)、(1, 1)、(5, 5)等任意值。再强调一下通道数只能设定为和输入数据的通道数相同的值本例中为3。 6.结合方块思考 将数据和滤波器结合长方体的方块来考虑3维数据的卷积运算会很容易理解。方块是如图7-10所示的3维长方体。把3维数据表示为多维数组时书写顺序为channel, height, width。比如通道数为C、高度为H、长度为W的数据的形状可以写成C, H, W。滤波器也一样要按channel, height, width的顺序书写。比如通道数为C、滤波器高度为FHFilter Height、长度为FWFilter Width时可以写成C, FH, FW。 在这个例子中数据输出是1张特征图。所谓1张特征图换句话说就是通道数为1的特征图。那么如果要在通道方向上也拥有多个卷积运算的输出该怎么做呢为此就需要用到多个滤波器权重。用图表示的话如图7-11所示。 图7-11中通过应用FN个滤波器输出特征图也生成了FN个。如果将这FN个特征图汇集在一起就得到了形状为(FN, OH, OW)的方块。将这个方块传给下一层就是CNN的处理流。如图 7-11 所示关于卷积运算的滤波器也必须考虑滤波器的数量。因此作为4维数据滤波器的权重数据要按(output_channel, input_channel, height, width)的顺序书写。比如通道数为3、大小为5 × 5的滤波器有20个时可以写成(20, 3, 5, 5)。卷积运算中和全连接层一样存在偏置。在图7-11的例子中如果进一步追加偏置的加法运算处理则结果如下面的图7-12所示。图7-12中每个通道只有一个偏置。这里偏置的形状是(FN, 1, 1)滤波器的输出结果的形状是(FN, OH, OW)。这两个方块相加时要对滤波 器的输出结果(FN, OH, OW)按通道加上相同的偏置值。另外不同形状的方块相加时可以基于NumPy的广播功能轻松实现1.5.5节。 7.批处理 神经网络的处理中进行了将输入数据打包的批处理。之前的全连接神经网络的实现也对应了批处理通过批处理能够实现处理的高效化和学习时对mini-batch的对应。我们希望卷积运算也同样对应批处理。为此需要将在各层间传递的数据保存为4维数据。具体地讲就是按(batch_num, channel, height, width)的顺序保存数据。比如将图7-12中的处理改成对N个数据进行批处理时数据的形状如图7-13所示。图7-13的批处理版的数据流中在各个数据的开头添加了批用的维度。像这样数据作为4维的形状在各层间传递。这里需要注意的是网络间传递的是4维数据对这N个数据进行了卷积运算。也就是说批处理将N次的处理汇总成了1次进行. 8.conv2d代码 import torch import torch.nn as nn# 设定一个[1, 3, 5, 5]的输入 input torch.Tensor([[[[1, 2, 3, 4, 5],[1, 2, 3, 4, 5],[1, 2, 3, 4, 5],[1, 2, 3, 4, 5],[1, 2, 3, 4, 5]],[[1, 2, 3, 4, 5],[1, 2, 3, 4, 5],[1, 2, 3, 4, 5],[1, 2, 3, 4, 5],[1, 2, 3, 4, 5]],[[1, 2, 3, 4, 5],[1, 2, 3, 4, 5],[1, 2, 3, 4, 5],[1, 2, 3, 4, 5],[1, 2, 3, 4, 5]]]]) # 设定一个卷积 conv nn.Conv2d(in_channels3,out_channels3,kernel_size3,#这里的kernel_size3和kernel_size(3,3)意思一样stride1,padding0,# 注意,这里padding0意思是不填充任何数字# 若padding1,则举个例子,原来的(3,3)是填充为(5,5),而非(4,4)dilation1,groups3)# 设定卷积的权重数值 conv.weight.data torch.Tensor([[[[1, 1, 1],[1, 1, 1],[1, 1, 1]]],[[[2, 2, 2],[2, 2, 2],[2, 2, 2]]],[[[3, 3, 3],[3, 3, 3],[3, 3, 3]]]]) # 利用卷积得到输出 output conv(input) print(output)参考文章 [1]Pytorch的nn.Conv2d详解
http://www.dnsts.com.cn/news/75337.html

相关文章:

  • 给了几张图让做网站阿里云的网站模版好吗
  • 嘉兴有哪些做网站的公司南宁企业网站排名优化
  • 网站 错误代码wordpress 提前8小时
  • 济南建网站哪家好做网站哪里好
  • seo技术培训学校如何优化百度seo排名
  • 秀山网站制作wordpress懒加载插件
  • 苏州vi设计公司泊头 网站优化
  • 成都制作网站价格表浙江省建设执业资格中心网站
  • 网站建设公司网站模板自助建站系统下载
  • 永康建设网站蓝色 网站
  • 浅析我国门户网站建设不足城乡建设部统计信息网站
  • 网站建设综合推荐室内设计8年熬不起了
  • 网站共享备案可以申请支付接口wordpress实时刷新模块
  • 常德建设企业网站wordpress 安装主体
  • 一学一做演讲视频网站自己网站
  • 网站的建设费 账务处理专门做茶叶会的音乐网站
  • 常州工厂网站建设网站内容页怎么设计模板
  • 做网站平台赚钱吗广州越秀区天气预报15天查询
  • 西宁哪家网络公司做网站好wordpress评分点评
  • 网站建设 接单wordpress在线直播插件
  • 哪个网站做简历免费下载深圳公司名称大全
  • 湖南建设网站公司建筑工程网站源码
  • 门业网站模板软件开发方法有几种
  • 猎头网站模板怎么查询网站有没有做网站地图
  • 牡丹江市营商环境建设监督局网站佛山网站建设
  • 新郑做网站公司网站建设歺金手指排名13
  • 备案期间 网站想正常wordpress双语建站
  • 中国建设银行重庆网站网站丢失了怎么办啊
  • 济南企业网站推广方法怎么样做推广
  • 网站建设域名有哪些类型如何保护网站模板