帮人做网站在徐州被敲诈五万,零食网站页面模板,网站设计方案大全,巩义网络推广外包【#x1f34a;易编橙#xff1a;一个帮助编程小伙伴少走弯路的终身成长社群#x1f34a;】 大家好#xff0c;我是小森( #xfe61;ˆoˆ#xfe61; ) #xff01; 易编橙终身成长社群创始团队嘉宾#xff0c;橙似锦计划领衔成员、阿里云专家博主、腾讯云内容共创官… 【易编橙一个帮助编程小伙伴少走弯路的终身成长社群】 大家好我是小森( ˆoˆ ) 易编橙·终身成长社群创始团队嘉宾橙似锦计划领衔成员、阿里云专家博主、腾讯云内容共创官、CSDN人工智能领域优质创作者 。 池化层 (Pooling) 降低维度缩减模型大小提高计算速度. 即: 主要对卷积层学习到的特征图进行下采样SubSampling处理 。 通过下采样我们可以提取出特征图中最重要的特征同时忽略掉一些不重要的细节。上采样是指增加数据图像的尺寸通常用于图像的分割、超分辨率重建或生成模型中以便将特征图恢复到原始图像的尺寸或更大的尺寸。
池化层
池化包含最大池化和平均池化有一维池化二维池化三维池化在这里以二维池化为例
最大池化
最大池化就是求一个区域中的最大值来代替该区域。
torch.nn.MaxPool2d(kernel_size, strideNone, padding0, dilation1, return_indicesFalse, ceil_modeFalse)
假设输入的尺寸是(,,,)输出尺寸是(,,,)kernel_size是(,)可以写成下面形式 其中输入参数 kernel_sizestridepaddingdilation可以是
一个 int 代表长宽使用同样的参数两个int组成的元组第一个int用在H维度第二个int用在W维度
import torch
import torch.nn as nn
#长宽一致的池化,核尺寸为3x3池化步长为2
ml nnMaxPool2d(3, stride2)
#长宽不一致的池化
m2 nn.MaxPool2d((3,2), stride(2,1))
input torch.randn(4,3,24,24)
output1 m1( input)
output2 m2( input)
print( input.shape ,input.shape)
print( output1.shape , output1.shape)
print( output2.shape , output2.shape)输出
input.shape torch.size([432424])
output1.shape torch. size([431111])
output2.shape torch.size([431123])平均池化
平均池化就是用一个区域中的平均数来代替本区域
torch.nn.AvgPool2d(kernel_size, strideNone, padding0, ceil_modeFalse, count_include_padTrue, divisor_overrideNone) import torch
import torch.nn as nn
#长宽一致的池化,核尺寸为3x3池化步长为2
ml nn. AvgPool2d( 3, stride2)
#长宽不一致的池化
m2 nn. AvgPool2d(( 3,2), stride(2,1) )
input torch.randn(4,3,24,24)
output1 m1( input)
output2 m2( input)
print(input.shape ,input. shape)
print(output1.shape , output1.shape)
print( output2.shape , output2.shape)randn是生成形状为[batch_size, channels, height, width]
输出
input.shape torch.size([432424])
output1.shape torch.size([431111])
output2.shape torch.size([431123])BN层
BN即Batch Normalization是对每一个batch的数据进行归一化操作可以使得网络训练更稳定加速网络的收敛。 import torch
import torch.nn as nn
#批量归一化层具有可学习参数)
m_learnable nn. BatchNorm2d(100)
#批量归一化层(不具有可学习参数)
m_non_learnable nn.BatchNorm2d(100,affineFalse)
#随机生成输入数据
input torch.randn(20,100,35,45)
#应用具有可学习参数的批量归一化层
output_learnable m_learnable(input)
#应用不具有可学习参数的批量归一化层
output_non_learnable m_non_learnable(input)
print( input.shape , input.shape)
print( output_learnable.shape , output_learnable.shape)
print( output_non_learnable.shape , output_non_learnable.shape)输出
input.shape torch.size([201003545])
output_learnable.shape torch.size( [20,100,35,45])
output_non_learnable.shape torch.size([20,100,35,45])常见的层就是上面提到的这些如果这些层结构被反复调用我们可以将其封装成一个个不同的模块。
案例复现LeNet
LeNet结构使用PyTorch进行复现卷积核大小5x5最大池化层核大小2x2
import torch
import torch.nn as nn
from torchsummary import summary
class LeNet( nn . Module):def _init_( self,num_classes10):super(Leet, self)._init__()self.conv1 nn.conv2d( in_channels3,out_channels6,kernel_size5)self.pool1 nn. MaxPool2d(kernel_size2)self.conv2 nn.Conv2d(in_channels6,out_channels16,kernel_size5)self.pool2 nn. MaxPool2d(kernel_size2)self.conv3 nn.conv2d(in_channels16,out_channels120, kernel_size5)self.fc1 nn.Linear(in_features120,out_features84)self.fc2 nn.Linear(in_features84,out_features10)def forward(self, x):#通过卷积层、ReLU和池化层x self.conv1(x)x self.pool1(x)x self.conv2(x)x self.pool2(x)x self.conv3(x)x x.view( -1120)x self.fc1(x)x self.fc2(x)return x
#创建网络实例
num_classes 10
net LeNet( num_classes)#创建一个输入
batch_size 4
input_tensor torch.randn(batch_size,3,32,32)
# 假设输入是32x32的RGB图像
#将输入Tensor传递给网络
output net(input_tensor)
# #显示输出Tensor的形状
print(output.shape)
summary(net,(3,32,32))
Sequential: 顺序容器
Sequential属于顺序容器。模块将按照在构造函数中传递的顺序从上到下进行运算。
使用OrderedDict可以进一步对传进来的层进行重命名。
#使用sequential来创建小模块当有输入进来会从上到下依次经过所有模块
model nn. Sequential(
nn.conv2d(1,20,5),nn.ReLu() ,
nn.conv2d(20,64,5),nn.ReLU()
)
#使用orderedDict可以对传进来的模块进行命名实现效果同上
from collections import orderedDict
model nn. sequential ( orderedDict([( conv1 , nn.Conv2d( 1,20,5)),( relu1 , nn.ReLU( ) ),( conv2 , nn.conv2d(20,64,5)),( relu2 , nn.ReLU())
]))除此之外还可以用 ModuleList和 ModuleDict 来存放子模块但是用的不多掌握了上面的内容就足够了。