最新网站建设方案,世界优秀网页设计赏析,网站导航菜单代码,管理平台登录系列文章目录
PyTorch深度学习——Anaconda和PyTorch安装 Pytorch深度学习-----数据模块Dataset类 Pytorch深度学习------TensorBoard的使用 Pytorch深度学习------Torchvision中Transforms的使用#xff08;ToTensor#xff0c;Normalize#xff0c;Resize #xff0c;Co…系列文章目录
PyTorch深度学习——Anaconda和PyTorch安装 Pytorch深度学习-----数据模块Dataset类 Pytorch深度学习------TensorBoard的使用 Pytorch深度学习------Torchvision中Transforms的使用ToTensorNormalizeResize ComposeRandomCrop Pytorch深度学习------torchvision中dataset数据集的使用CIFAR10 Pytorch深度学习-----DataLoader的用法 文章目录 系列文章目录一、nn.Module是什么二、搭建自己的一个神经网络 一、nn.Module是什么
首先nn是Neural Netword神经网络首字母的缩写。 其次torch.nn是专门为神经网络设计的模块化接口,可以用来定义和运行神经网络。 nn.Module是nn中十分重要的类包含网络各层的定义及forward方法。 类别如下图所示 Module位于containers容器中 官网案例如下图所示 代码解释如下
import torch.nn as nn
import torch.nn.functional as Fclass Model(nn.Module): # 表示nn.Module为其Model的父类Model继承于它def __init__(self): # 构造函数进行初始化super().__init__() # 调用父类的构造函数self.conv1 nn.Conv2d(1, 20, 5) # 卷积操作self.conv2 nn.Conv2d(20, 20, 5) # 卷积操作def forward(self, x): # 前向传播函数x F.relu(self.conv1(x))return F.relu(self.conv2(x))小土堆对forward函数的解释如下图所示 即对输入的x进行第一次卷积再进行第一次非线性操作 再第二次进行卷积然后第二次非线性操作。 最后返回结果。
二、搭建自己的一个神经网络
import torch
import torch.nn as nn# 创建类
class Lgl(nn.Module): # 表示nn.Module为其Lgl的父类Lgl继承于它def __init__(self): # 构造函数进行初始化super().__init__() # 调用父类的构造函数def forward(self, x): # 前向传播函数y x1 # 定义这个神经网络是输入x返回x1的结果return y
# 实例化
test Lgl()
xtorch.tensor(1.0) # class torch.Tensor创建tensor类型数据作为卷积的参数
print(type(x))
result test(x)
print(result) # tensor(2.)