当前位置: 首页 > news >正文

有做足球裁判跑动数据的网站吗网站面包屑导航

有做足球裁判跑动数据的网站吗,网站面包屑导航,温州新公司做网站,做视频网站视频放在哪里我们常用torch.nn来封装网络#xff0c;torch.nn为我们封装好了很多神经网络中不同的层#xff0c;如卷积层、池化层、归一化层等。我们会把这些层像是串成一个牛肉串一样串起来#xff0c;形成网络。 先从最简单的#xff0c;都有哪些层开始学起。 Convolution Layers -…我们常用torch.nn来封装网络torch.nn为我们封装好了很多神经网络中不同的层如卷积层、池化层、归一化层等。我们会把这些层像是串成一个牛肉串一样串起来形成网络。 先从最简单的都有哪些层开始学起。 Convolution Layers - 卷积层 torch.nn.Conv1d() 1维卷积层。 torch.nn.Conv1d(in_channels, out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone)in_channels输入tensor的通道数 out_channels输出tensor的通道数 kernel_size卷积核的大小 stride步长 padding输入tensor的边界填充尺寸 dilation卷积核之间的间距下面这个图为dilation2默认为1 groups从输入通道到输出通道的阻塞连接数。in_channel和out_channel需要能被groups整除。更具体地 groups1时所有输入均与所有输出进行卷积groups2时该操作相当于并排设置两个卷积层每卷积层看到一半的输入通道产生一半的输出通道然后将两个卷积层连接起来。groupsin_channel时输入的每个通道都和相应的卷积核进行卷积 bias是否添加可学习的偏差值True为添加False为不添加。 padding_mode填充模式有以下取值zeros这个是默认值、reflect、replicate、circular。 import torch import torch.nn as nnm nn.Conv1d(in_channels16,out_channels33,kernel_size3,stride2) # input: 批大小为20每个数据通道为16size50 input torch.randn(20, 16, 50) output m(input) print(output.size())输出 # output: 批大小为20每个数据通道为33size24 torch.Size([20, 33, 24])torch.nn.Conv2d() 2维卷积层。 torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone)参数与Conv1d()基本一样不再赘述。 import torch import torch.nn as nnm nn.Conv2d(in_channels2,out_channels3,kernel_size3,stride2) input torch.randn(20, 2, 5, 6) output m(input) print(output.size())输出 torch.Size([20, 3, 2, 2])torch.nn.Conv3d() 3维卷积层。 torch.nn.Conv3d(in_channels, out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone)参数与Conv1d()基本一样不再赘述。 import torch import torch.nn as nnm nn.Conv3d(in_channels2,out_channels3,kernel_size3,stride2) input torch.randn(20, 2, 4, 5, 6) output m(input) print(output.size())输出 torch.Size([20, 3, 1, 2, 2])torch.nn.ConvTranspose1d() 1维转置卷积层。 torch.nn.ConvTranspose1d(in_channels, out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone)参数与Conv1d()基本一样不再赘述。 唯一不同的是output_padding与padding不同的是output_padding是输出tensor的每一个边外面填充的层数。 padding是输入tensor的每个边填充的层数 import torch import torch.nn as nnm nn.ConvTranspose1d(in_channels2,out_channels3,kernel_size3,stride1) input torch.randn(20, 2, 2) output m(input) print(output.size())输出 torch.Size([20, 3, 4])torch.nn.ConvTranspose2d() 2维转置卷积层。 torch.nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone)参数与Conv1d()基本一样不再赘述。 import torch import torch.nn as nnm nn.ConvTranspose2d(in_channels2,out_channels3,kernel_size3,stride1) input torch.randn(20, 2, 2, 2) output m(input) print(output.size())输出 torch.Size([20, 3, 4, 4])torch.nn.ConvTranspose3d() 3维转置卷积层。 torch.nn.ConvTranspose3d(in_channels, out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone)参数与Conv1d()基本一样不再赘述。 import torch import torch.nn as nnm nn.ConvTranspose3d(in_channels2,out_channels3,kernel_size3,stride1) input torch.randn(20, 2, 2, 2, 2) output m(input) print(output.size())输出 torch.Size([20, 3, 4, 4, 4])torch.nn.LazyConv1d() 1维延迟初始化卷积层当in_channel不确定时可使用这个层。 关于延迟初始化大家可以参考这篇文章我认为讲的很好 俱往矣… - 延迟初始化——【torch学习笔记】 torch.nn.LazyConv1d(out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone)LazyConv1d没有in_channel参数。 这不代表这个层没有输入的通道而是在调用时自动适配并进行初始化。 引用文章中的一段代码改成LazyConv1d讲述使用方法。 import torch import torch.nn as nnnet nn.Sequential(nn.LazyConv1d(256, 2),nn.ReLU(),nn.Linear(9, 10) ) print(net) [net[i].state_dict() for i in range(len(net))]low torch.finfo(torch.float32).min / 10 high torch.finfo(torch.float32).max / 10 X torch.zeros([2, 20, 10], dtypetorch.float32).uniform_(low, high) net(X) print(net)输出 Sequential((0): LazyConv1d(0, 256, kernel_size(2,), stride(1,))(1): ReLU()(2): Linear(in_features9, out_features10, biasTrue) ) Sequential((0): Conv1d(20, 256, kernel_size(2,), stride(1,))(1): ReLU()(2): Linear(in_features9, out_features10, biasTrue) )可以看出未进行初始化时in_features0。只有传入参数使用网络后才会根据输入进行初始化。 torch.nn.LazyConv2d() 2维延迟初始化卷积层。 torch.nn.LazyConv2d(out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone)torch.nn.LazyConv3d() 3维延迟初始化卷积层。 torch.nn.LazyConv3d(out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone)torch.nn.LazyConvTranspose1d() 1维延迟初始化转置卷积层。 torch.nn.LazyConvTranspose1d(out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone)torch.nn.LazyConvTranspose2d() 2维延迟初始化转置卷积层。 torch.nn.LazyConvTranspose2d(out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone)torch.nn.LazyConvTranspose3d() 3维延迟初始化转置卷积层。 torch.nn.LazyConvTranspose3d(out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone)torch.nn.Unfold() 从一个批次的输入张量中提取出滑动的局部区域块。 torch.nn.Unfold(kernel_size, dilation1, padding0, stride1)kernel_size滑动块的大小 dilation卷积核之间的间距(torch.nn.Conv1d中有图示) padding输入tensor的边界填充尺寸 stride滑块滑动的步长。 这里的输入必须是4维的tensor否则会报这样的错误 NotImplementedError: Input Error: Only 4D input Tensors are supported (got 2D)示例 import torch from torch import nnt torch.tensor([[[[1., 2., 3., 4.],[5., 6., 7., 8.],[9., 10., 11., 12.],[13., 14., 15., 16.],]]])unfold nn.Unfold(kernel_size(2, 2), dilation1, padding0, stride1) output unfold(t) print(output)输出 tensor([[[ 1., 2., 3., 5., 6., 7., 9., 10., 11.],[ 2., 3., 4., 6., 7., 8., 10., 11., 12.],[ 5., 6., 7., 9., 10., 11., 13., 14., 15.],[ 6., 7., 8., 10., 11., 12., 14., 15., 16.]]])torch.nn.Fold() Unfold()的逆操作。当Unfold()时出现滑块有重复覆盖时会导致结果和原来不一样。因为Fold()的过程中对于同一个位置的元素进行加法处理。 torch.nn.Fold(output_size, kernel_size, dilation1, padding0, stride1)下面是Unfold()和Fold()结合的代码Unfold()部分和上面代码相同。 import torch from torch import nnt torch.tensor([[[[1., 2., 3., 4.],[5., 6., 7., 8.],[9., 10., 11., 12.],[13., 14., 15., 16.]]]])unfold nn.Unfold(kernel_size(2, 2), dilation1, padding0, stride1) output unfold(t) print(output) fold nn.Fold(output_size(4, 4), kernel_size(2, 2)) out fold(output) print(out)输出 tensor([[[ 1., 2., 3., 5., 6., 7., 9., 10., 11.],[ 2., 3., 4., 6., 7., 8., 10., 11., 12.],[ 5., 6., 7., 9., 10., 11., 13., 14., 15.],[ 6., 7., 8., 10., 11., 12., 14., 15., 16.]]]) tensor([[[[ 1., 4., 6., 4.],[10., 24., 28., 16.],[18., 40., 44., 24.],[13., 28., 30., 16.]]]])
http://www.dnsts.com.cn/news/189294.html

相关文章:

  • 保定市城乡建设局官方网站下载好的网站模板怎么用
  • 烟台公司网站开发简述网页制作步骤
  • 必须在当地网站备案在域名做网站
  • 做家教网站赚钱么免费申请logo
  • 网站建设后怎么赚钱跨境电商网络营销方式
  • 海天网站建设广州最好的网站建设公司
  • 网站登录入口网站除了域名还要什么用
  • o2o网站建设最好公司泰安网站销售公司
  • 网站建设win2012wordpress最漂亮主题
  • 网站ui设计规范app软件开发企业
  • 淄博做网站优化深圳电子网站开发
  • 一起来做网站百度推广费
  • 怎样申请网站域名wordpress使用主题
  • 做网站排名软件管理咨询公司收费标准报价单
  • 深圳网站建站建设做设计必须知道的几个网站
  • 如何手机创建网站网站建设优化哪家公司好
  • 江阴市建设局网站管理通道展会布置效果图
  • 专业做网站哪家便宜泸州作网站建设联系电话
  • wordpress公司展示网站模板网站规划教学设计
  • 网站支付宝接口代码政务服务网站建设整改报告
  • 怎样做同性恋女视频网站在线制作表白网站的源码
  • 公司做网站百度可以搜到吗十大不封号直播平台
  • 手机网站开发合同范本黄骅港旅游景点
  • 网站排名掉了百度推广帮做网站
  • 做海淘的网站乐清本地生活服务平台
  • 邦策网站建设平台流浪猫狗救助网站开发设计
  • 网站备案号密码找回网站建设同步视频
  • 做网站怎么选服务器专业网站制作的公司
  • 大型资讯门户网站怎么做排名网站首页做30个关键词
  • 高端品牌网站建设(杭州)知名的中小企业有哪些