当前位置: 首页 > news >正文

深圳网站建设 手机网站建设海外直邮购物网站

深圳网站建设 手机网站建设,海外直邮购物网站,东莞营销网站建设优化,太原提高网站排名多层感知机的简洁实现pytorch-多层感知机#xff0c;最简单的深度学习模型#xff0c;将非线性激活函数引入到模型中。_羞儿的博客-CSDN博客中含单隐藏层的多层感知机的实现方法。首先构造Sequential实例#xff0c;然后依次添加两个全连接层。其中第一层的输出大小为256最简单的深度学习模型将非线性激活函数引入到模型中。_羞儿的博客-CSDN博客中含单隐藏层的多层感知机的实现方法。首先构造Sequential实例然后依次添加两个全连接层。其中第一层的输出大小为256即隐藏层单元个数是256第二层的输出大小为10即输出层单元个数是10。我们在上一章的其他节中也使用了Sequential类构造模型。这里我们介绍另外一种基于Module类的模型构造方法它让模型构造更加灵活。 继承Module类来构造模型 Module类是nn模块里提供的一个模型构造类是所有神经网络模块的基类可以继承它来定义我们想要的模型。下面继承Module类构造本节开头提到的多层感知机。这里定义的MLP类重载了Module类的__init__函数和forward函数。它们分别用于创建模型参数和定义前向计算。前向计算也即正向传播。MLP类中无须定义反向传播函数。系统将通过自动求梯度而自动生成反向传播所需的backward函数。 import torch from torch import nn class MLP(nn.Module):# 声明带有模型参数的层这里声明了两个全连接层def __init__(self, **kwargs):# 调用MLP父类Module的构造函数来进行必要的初始化。这样在构造实例时还可以指定其他函数# 参数如“模型参数的访问、初始化和共享”一节将介绍的模型参数paramssuper(MLP, self).__init__(**kwargs)self.hidden nn.Linear(784, 256) # 隐藏层self.act nn.ReLU()self.output nn.Linear(256, 10) # 输出层# 定义模型的前向计算即如何根据输入x计算返回所需要的模型输出def forward(self, x):a self.act(self.hidden(x))return self.output(a)可以实例化MLP类得到模型变量net。下面的代码初始化net并传入输入数据X做一次前向计算。其中net(X)会调用MLP继承自Module类的__call__函数这个函数将调用MLP类定义的forward函数来完成前向计算。 x torch.rand(2, 784) net MLP() print(net) net(X)ag-0-1gqj7fqh9ag-1-1gqj7fqh9MLP((hidden): Linear(in_features784, out_features256, biasTrue)(act): ReLU()(output): Linear(in_features256, out_features10, biasTrue) ) tensor([[ 0.0569, 0.0350, -0.0277, -0.0978, 0.0526, -0.1721, 0.1613, 0.0384,0.0745, -0.1180],[ 0.1452, 0.0046, 0.0880, -0.0355, -0.0086, -0.0448, 0.2466, 0.0487,0.0475, -0.0972]], grad_fnAddmmBackward0)注意这里并没有将Module类命名为Layer层或者Model模型之类的名字这是因为该类是一个可供自由组建的部件。它的子类既可以是一个层如PyTorch提供的Linear类又可以是一个模型如这里定义的MLP类或者是模型的一个部分。 Module的子类 Module类是一个通用的部件。事实上PyTorch还实现了继承自Module的可以方便构建模型的类: 如Sequential、ModuleList和ModuleDict等等。 Sequential类 当模型的前向计算为简单串联各个层的计算时Sequential类可以通过更加简单的方式定义模型。这正是Sequential类的目的它可以接收一个子模块的有序字典OrderedDict或者一系列子模块作为参数来逐一添加Module的实例而模型的前向计算就是将这些实例按添加的顺序逐一计算。 实现一个与Sequential类有相同功能的MySequential类。这或许可以帮助读者更加清晰地理解Sequential类的工作机制。用MySequential类来实现前面描述的MLP类并使用随机初始化的模型做一次前向计算。 MySequential((0): Linear(in_features784, out_features256, biasTrue)(1): ReLU()(2): Linear(in_features256, out_features10, biasTrue) ) tensor([[ 0.0266, 0.0073, 0.1667, -0.0249, -0.0646, 0.0612, 0.0847, 0.0460,0.3148, 0.0031],[ 0.0881, 0.0829, 0.1487, 0.0068, -0.1228, -0.1077, 0.0487, -0.0836,0.1567, -0.1193]], grad_fnAddmmBackward0)ModuleList类 ModuleList接收一个子模块的列表作为输入然后也可以类似List那样进行append和extend操作: net nn.ModuleList([nn.Linear(784, 256), nn.ReLU()]) net.append(nn.Linear(256, 10)) # # 类似List的append操作 print(net[-1]) # 类似List的索引访问 print(net) net(torch.zeros(1, 784)) # 会报NotImplementedErrorLinear(in_features256, out_features10, biasTrue) ModuleList((0): Linear(in_features784, out_features256, biasTrue)(1): ReLU()(2): Linear(in_features256, out_features10, biasTrue) ) NotImplementedError: Module [ModuleList] is missing the required forward function既然Sequential和ModuleList都可以进行列表化构造网络那二者区别是什么呢。ModuleList仅仅是一个储存各种模块的列表这些模块之间没有联系也没有顺序所以不用保证相邻层的输入输出维度匹配而且没有实现forward功能需要自己实现所以上面执行net(torch.zeros(1, 784))会报NotImplementedError而Sequential内的模块需要按照顺序排列要保证相邻层的输入输出大小相匹配内部forward功能已经实现。 ModuleList的出现只是让网络定义前向传播时更加灵活见下面官网的例子。 class MyModule(nn.Module):def __init__(self):super(MyModule, self).__init__()self.linears nn.ModuleList([nn.Linear(10, 10) for i in range(10)])def forward(self, x):# ModuleList can act as an iterable, or be indexed using intsfor i, l in enumerate(self.linears):x self.linears[i // 2](x) l(x)return x另外ModuleList不同于一般的Python的list加入到ModuleList里面的所有模块的参数会被自动添加到整个网络中下面看一个例子对比一下。 class Module_ModuleList(nn.Module):def __init__(self):super(Module_ModuleList, self).__init__()self.linears nn.ModuleList([nn.Linear(10, 10)])class Module_List(nn.Module):def __init__(self):super(Module_List, self).__init__()self.linears [nn.Linear(10, 10)] net1 Module_ModuleList() net2 Module_List() print(net1:) for p in net1.parameters():print(p.size()) print(net2:) for p in net2.parameters():print(p)net1: torch.Size([10, 10]) torch.Size([10]) net2:ModuleDict类 ModuleDict接收一个子模块的字典作为输入, 然后也可以类似字典那样进行添加访问操作: net nn.ModuleDict({linear: nn.Linear(784, 256),act: nn.ReLU(), }) net[output] nn.Linear(256, 10) # 添加 print(net[linear]) # 访问 print(net.output) print(net) # net(torch.zeros(1, 784)) # 会报NotImplementedErrorLinear(in_features784, out_features256, biasTrue) Linear(in_features256, out_features10, biasTrue) ModuleDict((linear): Linear(in_features784, out_features256, biasTrue)(act): ReLU()(output): Linear(in_features256, out_features10, biasTrue) )和ModuleList一样ModuleDict实例仅仅是存放了一些模块的字典并没有定义forward函数需要自己定义。同样ModuleDict也与Python的Dict有所不同ModuleDict里的所有模块的参数会被自动添加到整个网络中。 构造复杂的模型 虽然上面介绍的这些类可以使模型构造更加简单且不需要定义forward函数但直接继承Module类可以极大地拓展模型构造的灵活性。下面我们构造一个稍微复杂点的网络FancyMLP。在这个网络中我们通过get_constant函数创建训练中不被迭代的参数即常数参数。在前向计算中除了使用创建的常数参数外我们还使用Tensor的函数和Python的控制流并多次调用相同的层。在这个FancyMLP模型中我们使用了常数权重rand_weight注意它不是可训练模型参数、做了矩阵乘法操作torch.mm并重复使用了相同的Linear层。下面我们来测试该模型的前向计算。 class FancyMLP(nn.Module):def __init__(self, **kwargs):super(FancyMLP, self).__init__(**kwargs)self.rand_weight torch.rand((20, 20), requires_gradFalse) # 不可训练参数常数参数self.linear nn.Linear(20, 20)def forward(self, x):x self.linear(x)# 使用创建的常数参数以及nn.functional中的relu函数和mm函数x nn.functional.relu(torch.mm(x, self.rand_weight.data) 1)# 复用全连接层。等价于两个全连接层共享参数x self.linear(x)# 控制流这里我们需要调用item函数来返回标量进行比较while x.norm().item() 1:x / 2if x.norm().item() 0.8:x * 10return x.sum() X torch.rand(2, 20) net FancyMLP() print(net) net(X)FancyMLP((linear): Linear(in_features20, out_features20, biasTrue) ) tensor(-13.7453, grad_fnSumBackward0)因为FancyMLP和Sequential类都是Module类的子类所以我们可以嵌套调用它们。 class NestMLP(nn.Module):def __init__(self, **kwargs):super(NestMLP, self).__init__(**kwargs)self.net nn.Sequential(nn.Linear(40, 30), nn.ReLU()) def forward(self, x):return self.net(x) net nn.Sequential(NestMLP(), nn.Linear(30, 20), FancyMLP()) X torch.rand(2, 40) print(net) net(X)Sequential((0): NestMLP((net): Sequential((0): Linear(in_features40, out_features30, biasTrue)(1): ReLU()))(1): Linear(in_features30, out_features20, biasTrue)(2): FancyMLP((linear): Linear(in_features20, out_features20, biasTrue)) ) tensor(-8.4966, grad_fnSumBackward0)可以通过继承Module类来构造模型。Sequential、ModuleList、ModuleDict类都继承自Module类。与Sequential不同ModuleList和ModuleDict并没有定义一个完整的网络它们只是将不同的模块存放在一起需要自己定义forward函数。虽然Sequential等类可以使模型构造更加简单但直接继承Module类可以极大地拓展模型构造的灵活性。 模型参数的访问、初始化和共享 通过init模块来初始化模型的参数。我们也介绍了访问模型参数的简单方法。本节将深入讲解如何访问和初始化模型参数以及如何在多个层之间共享同一份模型参数。我们先定义一个与上一节中相同的含单隐藏层的多层感知机。我们依然使用默认方式初始化它的参数并做一次前向计算。与之前不同的是在这里我们从nn中导入了init模块它包含了多种模型初始化方法。 import torch from torch import nn from torch.nn import init net nn.Sequential(nn.Linear(4, 3), nn.ReLU(), nn.Linear(3, 1)) # pytorch已进行默认初始化 print(net) X torch.rand(2, 4) Y net(X).sum()Sequential((0): Linear(in_features4, out_features3, biasTrue)(1): ReLU()(2): Linear(in_features3, out_features1, biasTrue) )访问模型参数 上一节中提到的Sequential类与Module类的继承关系。对于Sequential实例中含模型参数的层我们可以通过Module类的parameters()或者named_parameters方法来访问所有参数以迭代器的形式返回后者除了返回参数Tensor外还会返回其名字。下面访问多层感知机net的所有参数 print(type(net.named_parameters())) for name, param in net.named_parameters():print(name, param.size())class generator 0.weight torch.Size([3, 4]) 0.bias torch.Size([3]) 2.weight torch.Size([1, 3]) 2.bias torch.Size([1])可见返回的名字自动加上了层数的索引作为前缀。我们再来访问net中单层的参数。对于使用Sequential类构造的神经网络我们可以通过方括号[]来访问网络的任一层。索引0表示隐藏层为Sequential实例最先添加的层。 import torch from torch import nn from torch.nn import init net nn.Sequential(nn.Linear(4, 3), nn.ReLU(), nn.Linear(3, 1)) # pytorch已进行默认初始化 print(net) X torch.rand(2, 4) Y net(X).sum() print(X,Y) print(type(net.named_parameters())) for name, param in net.named_parameters():print(name, param.size()) for name, param in net[0].named_parameters():print(name, param.size(), type(param))Sequential((0): Linear(in_features4, out_features3, biasTrue)(1): ReLU()(2): Linear(in_features3, out_features1, biasTrue) ) tensor([[0.3863, 0.5931, 0.4958, 0.5612],[0.6388, 0.5556, 0.0613, 0.0673]]) tensor(0.0355, grad_fnSumBackward0) class generator 0.weight torch.Size([3, 4]) 0.bias torch.Size([3]) 2.weight torch.Size([1, 3]) 2.bias torch.Size([1]) weight torch.Size([3, 4]) class torch.nn.parameter.Parameter bias torch.Size([3]) class torch.nn.parameter.Parameter因为这里是单层的所以没有了层数索引的前缀。另外返回的param的类型为torch.nn.parameter.Parameter其实这是Tensor的子类和Tensor不同的是如果一个Tensor是Parameter那么它会自动被添加到模型的参数列表里来看下面这个例子。 class MyModel(nn.Module):def __init__(self, **kwargs):super(MyModel, self).__init__(**kwargs)self.weight1 nn.Parameter(torch.rand(20, 20))self.weight2 torch.rand(20, 20)def forward(self, x):pass n MyModel() for name, param in n.named_parameters():print(name)weight1上面的代码中weight1在参数列表中但是weight2却没在参数列表中。因为Parameter是Tensor即Tensor拥有的属性它都有比如可以根据data来访问参数数值用grad来访问参数梯度。 weight_0 list(net[0].parameters())[0] print(weight_0.data) print(weight_0.grad) # 反向传播前梯度为None Y.backward() print(weight_0.grad)tensor([[ 0.1633, 0.4935, -0.2096, 0.3643],[-0.3411, -0.4858, -0.0935, -0.4009],[ 0.0155, 0.2264, 0.2721, 0.3809]]) None tensor([[-0.5175, -0.5799, -0.2812, -0.3173],[ 0.0000, 0.0000, 0.0000, 0.0000],[-0.2534, -0.2840, -0.1377, -0.1554]])初始化模型参数 PyTorch中nn.Module的模块参数都采取了较为合理的初始化策略不同类型的layer具体采样的哪一种初始化方法的可参考源代码。但我们经常需要使用其他方法来初始化权重。PyTorch的init模块里提供了多种预设的初始化方法。在下面的例子中我们将权重参数初始化成均值为0、标准差为0.01的正态分布随机数并依然将偏差参数清零。 for name, param in net.named_parameters():if weight in name:init.normal_(param, mean0, std0.01)print(name, param.data)0.weight tensor([[ 0.0024, 0.0115, 0.0088, 0.0098],[-0.0160, -0.0014, 0.0021, 0.0019],[ 0.0031, 0.0009, 0.0060, -0.0080]]) 2.weight tensor([[ 0.0137, -0.0166, -0.0243]])自定义初始化方法 有时候我们需要的初始化方法并没有在init模块中提供。这时可以实现一个初始化方法从而能够像使用其他初始化方法那样使用它。在这之前我们先来看看PyTorch是怎么实现这些初始化方法的例如torch.nn.init.normal_可以看到这就是一个inplace改变Tensor值的函数而且这个过程是不记录梯度的。类似的我们来实现一个自定义的初始化方法。在下面的例子里我们令权重有一半概率初始化为0有另一半概率初始化为[-10,-5]和[5,10]两个区间里均匀分布的随机数。 def normal_(tensor, mean0, std1):with torch.no_grad():return tensor.normal_(mean, std) def init_weight_(tensor):with torch.no_grad():tensor.uniform_(-10, 10)tensor * (tensor.abs() 5).float() for name, param in net.named_parameters():if weight in name:init_weight_(param)print(name, param.data)0.weight tensor([[-0.0000, -9.1898, 6.7726, -0.0000],[ 0.0000, -0.0000, -7.7626, 0.0000],[ 6.0222, 9.4339, -8.2883, -0.0000]]) 2.weight tensor([[0., 0., -0.]])还可以通过改变这些参数的data来改写模型参数值同时不会影响梯度: for name, param in net.named_parameters():if bias in name:param.data 1print(name, param.data)0.bias tensor([0.7341, 1.0775, 1.1191]) 2.bias tensor([1.2091])共享模型参数 在有些情况下我们希望在多个层之间共享模型参数。如何共享模型参数: Module类的forward函数里多次调用同一个层。此外如果我们传入Sequential的模块是同一个Module实例的话参数也是共享的下面来看一个例子:在内存中这两个线性层其实一个对象,因为模型参数里包含了梯度所以在反向传播计算时这些共享的参数的梯度是累加的: linear nn.Linear(1, 1, biasFalse) net nn.Sequential(linear, linear) print(net) for name, param in net.named_parameters():init.constant_(param, val3)print(name, param.data) print(id(net[0]) id(net[1])) print(id(net[0].weight) id(net[1].weight)) x torch.ones(1, 1) y net(x).sum() print(y) y.backward() print(net[0].weight.grad) # 单次梯度是3两次所以就是6Sequential((0): Linear(in_features1, out_features1, biasFalse)(1): Linear(in_features1, out_features1, biasFalse) ) 0.weight tensor([[3.]]) True True tensor(9., grad_fnSumBackward0) tensor([[6.]])自定义层 深度学习的一个魅力在于神经网络中各式各样的层例如全连接层和后面章节中将要介绍的卷积层、池化层与循环层。虽然PyTorch提供了大量常用的层但有时候我们依然希望自定义层。本节将介绍如何使用Module来自定义层从而可以被重复调用。 不含模型参数的自定义层 先介绍如何定义一个不含模型参数的自定义层。模型构造中介绍的使用Module类构造模型类似。下面的CenteredLayer类通过继承Module类自定义了一个将输入减掉均值后输出的层并将层的计算定义在了forward函数里。这个层里不含模型参数。可以实例化这个层然后做前向计算。 import torch from torch import nn class CenteredLayer(nn.Module):def __init__(self, **kwargs):super(CenteredLayer, self).__init__(**kwargs)def forward(self, x):return x - x.mean() layer CenteredLayer() layer(torch.tensor([1, 2, 3, 4, 5], dtypetorch.float))tensor([-2., -1., 0., 1., 2.])也可以用它来构造更复杂的模型。下面打印自定义层各个输出的均值。因为均值是浮点数所以它的值是一个很接近0的数。 y net(torch.rand(4, 8)) y.mean().item()-3.259629011154175e-09含模型参数的自定义层 还可以自定义含模型参数的自定义层。其中的模型参数可以通过训练学出。模型参数的访问、初始化和共享中介绍了Parameter类其实是Tensor的子类如果一个Tensor是Parameter那么它会自动被添加到模型的参数列表里。所以在自定义含模型参数的层时应该将参数定义成Parameter那样直接定义成Parameter类外还可以使用ParameterList和ParameterDict分别定义参数的列表和字典。 ParameterList接收一个Parameter实例的列表作为输入然后得到一个参数列表使用的时候可以用索引来访问某个参数另外也可以使用append和extend在列表后面新增参数。 class MyDense(nn.Module):def __init__(self):super(MyDense, self).__init__()self.params nn.ParameterList([nn.Parameter(torch.randn(4, 4)) for i in range(3)])self.params.append(nn.Parameter(torch.randn(4, 1)))def forward(self, x):for i in range(len(self.params)):x torch.mm(x, self.params[i])return x net MyDense() print(net)MyDense((params): ParameterList((0): Parameter containing: [torch.float32 of size 4x4](1): Parameter containing: [torch.float32 of size 4x4](2): Parameter containing: [torch.float32 of size 4x4](3): Parameter containing: [torch.float32 of size 4x1]) )而ParameterDict接收一个Parameter实例的字典作为输入然后得到一个参数字典然后可以按照字典的规则使用了。例如使用update()新增参数使用keys()返回所有键值使用items()返回所有键值对等等可参考官方文档。 class MyDictDense(nn.Module):def __init__(self):super(MyDictDense, self).__init__()self.params nn.ParameterDict({linear1: nn.Parameter(torch.randn(4, 4)),linear2: nn.Parameter(torch.randn(4, 1))})self.params.update({linear3: nn.Parameter(torch.randn(4, 2))}) # 新增def forward(self, x, choicelinear1):return torch.mm(x, self.params[choice]) net MyDictDense() print(net) x torch.ones(1, 4) # 这样就可以根据传入的键值来进行不同的前向传播 print(net(x, linear1)) print(net(x, linear2)) print(net(x, linear3))MyDictDense((params): ParameterDict((linear1): Parameter containing: [torch.FloatTensor of size 4x4](linear2): Parameter containing: [torch.FloatTensor of size 4x1](linear3): Parameter containing: [torch.FloatTensor of size 4x2]) ) tensor([[ 0.0328, 2.9246, 1.9687, -0.0347]], grad_fnMmBackward0) tensor([[-1.4231]], grad_fnMmBackward0) tensor([[ 2.0699, -0.0636]], grad_fnMmBackward0)也可以使用自定义层构造模型。它和PyTorch的其他层在使用上很类似。 net nn.Sequential(MyDictDense(),CenteredLayer(), ) print(net) print(net(x))Sequential((0): MyDictDense((params): ParameterDict((linear1): Parameter containing: [torch.FloatTensor of size 4x4](linear2): Parameter containing: [torch.FloatTensor of size 4x1](linear3): Parameter containing: [torch.FloatTensor of size 4x2]))(1): CenteredLayer() ) tensor([[-0.9821, 2.2057, 1.5066, -2.7302]], grad_fnSubBackward0)可以通过Module类自定义神经网络中的层从而可以被重复调用。 读取和存储 到目前为止介绍了如何处理数据以及如何构建、训练和测试深度学习模型。然而在实际中有时需要把训练好的模型部署到很多不同的设备。在这种情况下可以把内存中训练好的模型参数存储在硬盘上供后续读取使用。 读写Tensor 可以直接使用save函数和load函数分别存储和读取Tensor。save使用Python的pickle实用程序将对象进行序列化然后将序列化的对象保存到disk使用save可以保存各种对象,包括模型、张量和字典等。而load使用pickle unpickle工具将pickle的对象文件反序列化为内存。下面的例子创建了Tensor变量x并将其存在文件名同为x.pt的文件里。 import torch from torch import nn x torch.ones(3) torch.save(x, x.pt) x2 torch.load(x.pt) print(x2) # 还可以存储一个Tensor列表并读回内存。 y torch.zeros(4) torch.save([x, y], xy.pt) xy_list torch.load(xy.pt) print(xy_list) # 存储并读取一个从字符串映射到Tensor的字典。 torch.save({x: x, y: y}, xy_dict.pt) xy torch.load(xy_dict.pt) print(xy)tensor([1., 1., 1.]) [tensor([1., 1., 1.]), tensor([0., 0., 0., 0.])] {x: tensor([1., 1., 1.]), y: tensor([0., 0., 0., 0.])}[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-SKoP2sZg-1677897286625)(C:\Users\23105\AppData\Roaming\marktext\images\2023-03-04-10-20-35-image.png)] 读写模型 在PyTorch中Module的可学习参数(即权重和偏差)模块模型包含在参数中(通过model.parameters()访问)。state_dict是一个从参数名称隐射到参数Tesnor的字典对象。 class MLP(nn.Module):def __init__(self):super(MLP, self).__init__()self.hidden nn.Linear(3, 2)self.act nn.ReLU()self.output nn.Linear(2, 1)def forward(self, x):a self.act(self.hidden(x))return self.output(a) net MLP() net.state_dict()OrderedDict([(hidden.weight,tensor([[-0.3441, 0.5054, 0.5027],[ 0.4022, -0.0523, 0.2171]])),(hidden.bias, tensor([0.0867, 0.5426])),(output.weight, tensor([[ 0.5839, -0.6612]])),(output.bias, tensor([0.2582]))])注意只有具有可学习参数的层(卷积层、线性层等)才有state_dict中的条目。优化器(optim)也有一个state_dict其中包含关于优化器状态以及所使用的超参数的信息。 optimizer torch.optim.SGD(net.parameters(), lr0.001, momentum0.9) optimizer.state_dict(){state: {},param_groups: [{lr: 0.001,momentum: 0.9,dampening: 0,weight_decay: 0,nesterov: False,maximize: False,foreach: None,differentiable: False,params: [0, 1, 2, 3]}]}保存和加载模型加载预训练模型模型微调在自己的数据集上快速出效果_羞儿的博客-CSDN博客 PyTorch中保存和加载训练模型有两种常见的方法: 仅保存和加载模型参数(state_dict) 保存和加载整个模型。 保存和加载state_dict(推荐方式) # 保存 torch.save(model.state_dict(), PATH) # 推荐的文件后缀名是pt或pth # 加载 model TheModelClass(*args, **kwargs) model.load_state_dict(torch.load(PATH))保存和加载整个模型 torch.save(model, PATH) # 保存 model torch.load(PATH) # 加载采用推荐的方法一来实验一下: X torch.randn(2, 3) Y net(X) PATH ./net.pt torch.save(net.state_dict(), PATH) net2 MLP() net2.load_state_dict(torch.load(PATH)) Y2 net2(X) Y2 Ytensor([[True],[True]])因为这net和net2都有同样的模型参数那么对同一个输入X的计算结果将会是一样的。上面的输出也验证了这一点。此外还有一些其他使用场景例如GPU与CPU之间的模型保存与读取、使用多块GPU的模型的存储等等使用的时候可以参考官方文档。 通过save函数和load函数可以很方便地读写Tensor。通过save函数和load_state_dict函数可以很方便地读写模型的参数。 torch.save(model, PATH) # 保存 model torch.load(PATH) # 加载 采用推荐的方法一来实验一下: X torch.randn(2, 3) Y net(X) PATH ./net.pt torch.save(net.state_dict(), PATH) net2 MLP() net2.load_state_dict(torch.load(PATH)) Y2 net2(X) Y2 Ytensor([[True],[True]])因为这net和net2都有同样的模型参数那么对同一个输入X的计算结果将会是一样的。上面的输出也验证了这一点。此外还有一些其他使用场景例如GPU与CPU之间的模型保存与读取、使用多块GPU的模型的存储等等使用的时候可以参考官方文档。 通过save函数和load函数可以很方便地读写Tensor。通过save函数和load_state_dict函数可以很方便地读写模型的参数。
http://www.dnsts.com.cn/news/22047.html

相关文章:

  • 网站优化关键词排名自己怎么做wordpress图片展示插件
  • 免费个人网站服务器 html一个网站的建设流程有哪些
  • 桂林企业建站找人做app网站吗
  • 广州有哪些做网站的公司wordpress搭建网盘
  • 响应式网站跟一般网站的区别做网站 怎么做留言
  • 高端+旅游+网站建设网站总浏览量
  • 环保企业的网站怎么做如何制作海报宣传图片
  • 网站排名查询alexa建筑用模板尺寸一般是多少
  • php网站开发参考文献建设工程人力资源官网
  • 国际购物网站数字创意设计包括哪些方面
  • 温州市网站优化公司网站简介怎么做
  • 温州专业网站推广企业年金是什么?缴费比例是多少?
  • 外贸网站定做做网站规划
  • 鞍山专业做网站公司wordpress仪表盘密码
  • 绍兴建设网站商城的网站设计
  • 做网站怎么发布养老网站建设
  • 优秀设计集锦网站免费的销售管理系统
  • 百度推广总部电话seo的作用
  • 休闲采摘园网站建设公司专业网页制作
  • 长沙建站公司招聘代理软件
  • 福州网站建设哪个好wordpress如何使用百度主动推送
  • 网站半年没更新怎么做SEO怎么在中国做网站网站
  • 网站开发资金投入重庆网站如何做推广
  • 做兽设的网站营销网站建设都是专业技术人员吗
  • 攻略类型网站如何做产品营销成都做网站设计哪家好
  • 海外公司网站 国内做备案django 和 wordpress
  • 网站建设公司-信科网络网站宜昌
  • 五种网站类型wordpress比织梦好
  • 做网站能接到项目工程吗一步步教会你怎么做网站
  • 网站后台修改图片集顺序WORDPRESS商家确认收货系统