开县网站建设,网站建设方法叁金手指下拉丶,无锡高端网站设计制作,建立网站分为几阶段一、语句1.加注释单行注释#xff1a;#xff08;1#xff09;在代码上面加注释#xff1a; # 后面跟一个空格#xff08;2#xff09;在代码后面加注释#xff1a;和代码相距两个空格#xff0c; # 后面再跟一个空格多行注释#xff1a;按住shift 点击三次1在代码上面加注释 # 后面跟一个空格2在代码后面加注释和代码相距两个空格 # 后面再跟一个空格多行注释按住shift 点击三次英文状态下 2.with...as...with as 语句操作上下文管理器context manager它能够帮助我们自动分配并且释放资源。二、导入导入模块有两种常用方法 import 语句和 from … import 语句import XXX导入模块后调用此模块的ZZ方法时格式为XXX.ZZ()from XXX import ZZZZ为模块 XXX里的方法后调用此模块中的ZZ方法时格式为ZZ()(1条消息) 坑啊为什么不建议用 from xxx import *_菜鸟学Python的博客-CSDN博客1.from __future__ import print_function 该语句是python2的概念那么python3对于python2就是future了也就是说在python2的环境下超前使用python3的print函数。2.import numpy as np利用命令“import numpy as np”将numpy库取别名为“np”3.from tensorboardX import SummaryWriter是神经网络中的可视化工具Pytorch中TensorBoard及torchsummary的使用详解 | w3c笔记 (w3cschool.cn)4.import osimport os 在python环境下对文件文件夹执行操作的一个模块import os.path获取文件的属性5.import torch.nn.functional as F包含 torch.nn 库中所有函数同时包含大量 loss 和 activation function6.import argparse(1条消息) argparse.ArgumentParser()用法解析_quantLearner的博客-CSDN博客_argparse.argumentparser() 参数用来设置命令行参数参数和超参数的区别超参数Hyperparameter - HuZihu - 博客园 (cnblogs.com)三、一般函数解读 1.softplus()激活函数softplus的数学表达式以及与Relu的函数对比相当于Relu的平滑 2.forward()将上一层的输出作为下一层的输入并计算下一层的输出一直到运算到输出层为止。3.os.path.join用于路径拼接注意/的运用(2条消息) os.path.join()函数用法详解_swan777的博客-CSDN博客import os
pathC:/yyy/yyy_data/
print(os.path.join(path,/abc))
print(os.path.join(path,abc))
结果
C:/abc
C:/yyy/yyy_data/abc4.shutil.rmtree()递归地删除文件夹以及里面的文件5.random.randint(start, stop)返回指定范围内的整数enumerate() 函数用于将一个可遍历的数据对象(如列表、元组或字符串)组合为一个索引序列同时列出数据和数据下标一般用在 for 循环当中。6.enumerate()四、torch函数解读1.torch.tensor()用来存储和变换数据2.torch.sum()对输入的tensor数据的某一维度求和有两种方法dim0纵向求和dim1横向求和(1条消息) torch.sum()、np.sum()和sum()简要介绍_np.sum torch.sum_两分先生的博客-CSDN博客import torch
import numpy as npa torch.tensor([[1, 2, 3], [4, 5, 6]])
b np.array([[1, 2, 3], [4, 5, 6]])
c [1, 2, 3, 4, 5, 6]print(torch.sum(a))
print(torch.sum(a, dim0))
print(torch.sum(a, dim1))
print(torch.sum(a, dim1, keepdimTrue))print(np.sum(b))
print(np.sum(b, axis0))
print(np.sum(b, axis1))
print(np.sum(b, axis1, keepdimsTrue))print(sum(c))
print(sum(c, 1))
print(sum(c, 2))结果
tensor(21)
tensor([5, 7, 9])
tensor([ 6, 15])
tensor([[ 6],[15]])
21
[5 7 9]
[ 6 15]
[[ 6][15]]
21
22
233.torch.mul(a, b) 矩阵a和b对应位相乘a和b的维度必须相等比如a的维度是(1, 2)b的维度是(1, 2)返回的仍是(1, 2)的矩阵(1条消息) Pytorch矩阵乘法之torch.mul() 、 torch.mm() 及torch.matmul()的区别_irober的博客-CSDN博客a torch.tensor([[1, 2, 3], [4, 5, 6]])
print(a[:, :])#获取矩阵的全部值
l_x a[:, :].mul(a[:, :])#矩阵对应位相乘
print(l_x)结果
tensor([[1, 2, 3],[4, 5, 6]])
tensor([[ 1, 4, 9],[16, 25, 36]])4.torch.zeros()返回一个由标量值0填充的张量 torch.zeros(2, 3)
tensor([[ 0., 0., 0.],[ 0., 0., 0.]]) torch.zeros(5)
tensor([ 0., 0., 0., 0., 0.])5.torch.device()代表将torch.tensor分配到的设备的对象(简单点说就是分配到你的CPU还是GPU上,以及哪块GPU上)6.lambda函数的简化可以直接赋给变量并调用细说Python的lambda函数用法建议收藏 - 知乎 (zhihu.com)import torch
clambda x,y,z:x*y*z
print(c(2,3,4))
结果
247.torch.utils.data.DataLoader将数据加载到模型(2条消息) PyTorch学习笔记(6)——DataLoader源代码剖析_sooner高的博客-CSDN博客_woker_init_fn8.TensorboardSummaryWriter类可以看训练过程中loss的变化。之前用于Tensorflow框架自Pytorch1.1之后Pytorch也加了这个功能writer1SummaryWriter(runs/exp)#将loss值存储到此路径中Pytorch深度学习实战教程四必知必会的炼丹法宝 - 知乎 (zhihu.com)9.torch.optim.SGD()随机梯度下降算法parameters为待优化参数的iterablew和b的迭代lr为学习率optim.SGD(pnet.parameters(), lropt.lr, momentumopt.momentum)(3条消息) torch.optim.SGD()_echo_gou的博客-CSDN博客_torch.optim.sgd10.torch.optim.lr_schedulertorch.optim.lr_scheduler模块提供了一些根据epoch训练次数来调整学习率learning rate的方法。一般情况下我们会设置随着epoch的增大而逐渐减小学习率从而达到更好的训练效果。常见的调整策略史上最全学习率调整策略lr_scheduler - cwpeng - 博客园 (cnblogs.com)