当前位置: 首页 > news >正文

wordpress添加背景游戏优化大师手机版

wordpress添加背景,游戏优化大师手机版,wordpress 友情链接,二级网站建设与管理会议1 基本介绍 #xff08;1#xff09;什么是Pytorch? PyTorch是一个开源机器学习和深度学习框架。PyTorch 允许您使用 Python 代码操作和处理数据并编写深度学习算法#xff0c;能够在强大的GPU加速基础上实现张量和动态神经网络。 PyTorch是一个基于 Python 的科学计算包…1 基本介绍 1什么是Pytorch? PyTorch是一个开源机器学习和深度学习框架。PyTorch 允许您使用 Python 代码操作和处理数据并编写深度学习算法能够在强大的GPU加速基础上实现张量和动态神经网络。 PyTorch是一个基于 Python 的科学计算包使用 Tensor 作为其核心数据结构类似于 Numpy 数组不同的是PyTorch 可以用GPU来处理数据提供许多深度学习的算法。 PyTorch提供了完整的使用文档、循序渐进的用户指南作者亲自维护PyTorch论坛方便用户交流和解决问题。 Meta(前Facebook)人工智能研究院FAIR对PyTorch的推广提供了大力支持。作为当今排名前三的深度学习研究机构FAIR的支持足以确保PyTorch获得持续开发、更新的保障不至于像一些个人开发的框架那样昙花一现。如有需要我们也可以使用Python软件包(如NumPy、SciPy和Cython)来扩展 PyTorch。 相对于TensorFlowPyTorch的一大优点是它的图是动态的而TensorFlow框架是静态图不利于扩展。同时PyTorch非常简洁方便使用。 如果说TensorFlow的设计是“Make it complicated”Keras的设计是“Make it complicated and hide it”那么PyTorch的设计则真正做到了“Keep it simplestupid”。 2为什么使用Pytorch 机器学习研究人员喜欢使用 PyTorch。截至 2022 年 2 月PyTorch 是 Papers With Code 上最常用的深度学习框架该网站用于跟踪机器学习研究论文及其附带的代码存储库。 PyTorch 易于学习和使用足够灵活可以在各种应用中使用高效以便我们可以处理巨大的现实数据集并且足够准确即使在输入数据存在不确定性的情况下也能提供正确的结果。 许多深度学习的应用使用了PyTorch比如 文字生成图片的Stable Diffusion 用于对象检测和语义分割的YOLOv5系列现在已经更新到YOLOv10) 实时语音克隆Real-Time Voice Cloning 除上述通用领域的应用外在一些专业领域的应用也在快速发展比如医学领域用PyTorch开发的开箱即用的解决方案nnU-Net 在GIS领域ESRI官方提供了许多解决方案和预训练模型有提取建筑物轮廓的模型 2 环境安装 1PyTorch安装环境配置 创建一个虚拟python环境 conda create -n DL_Pytorch python3.9conda activate DL_Pytorch查看虚拟环境列表 conda info --envsconda info -econda env list激活虚拟环境 # conda旧版本4.3及更早的版本 source activate DL_Pytorch # conda新版本4.4及以后 conda activate DL_Pytorch删除虚拟环境 conda remove -n DL_Pytorch --all2Pytorch-CUDA版本环境配置 电脑如果是Windows平台下的Nvidia GPU的用户需配置Pytorch的CUDA版本分为三步 1. 安装或更新NVIDA显卡驱动 官方驱动下载地址下载 NVIDIA 官方驱动 | NVIDIA 2. 安装CUDA Toolkit cudnn 1CUDA安装 在CUDA Toolkit 安装前用以下命令查询机器上显卡最高支持的CUDA 版本 终端输入 nvidia-smi下图中CUDA Version是12.2。 如果你没有安装cuda toolkit或者需要升级可以去官网下载 CUDA Toolkit Archive | NVIDIA Developer 2CUDNN安装 NVIDIA CUDA深度神经网络库 (cuDNN) 是一个 GPU 加速的深度神经网络基元库能够以高度优化的方式实现标准例程如前向和反向卷积、池化层、归一化和激活层。 全球的深度学习研究人员和框架开发者都依赖 cuDNN 来实现高性能 GPU 加速。借助 cuDNN研究人员和开发者可以专注于训练神经网络及开发软件应用而不必花时间进行低层级的 GPU 性能调整。cuDNN 可加速广泛应用的深度学习框架包括 Caffe2、Keras、MATLAB、MxNet、PaddlePaddle、PyTorch和 TensorFlow。 下载地址cuDNN Archive | NVIDIA Developer 1下载并解压文件 2复制内容到CUDA安装路径 CUDA安装默认路径 WindowsC:\Program Files\NVIDIA GPU Computing Toolkit\CUDALinux/usr/local/cuda 3. 安装Pytorch 1在线安装 打开pytorch安装指导网站选择合适的系统平台关键是在compute platform选择一个不高于你电脑上的CUDA Version复制命令安装。 pip install torch版本号conda install torch版本号 # 使用conda安装 conda install python pytorch torchvision torchaudio pytorch-cuda11.7 -c pytorch -c nvidia # 使用pip安装 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117 或者 pip install torch2.0.0cu118 torchvision0.15.0cu118 torchaudio2.0.1cu118 -f https://download.pytorch.org/whl/torch_stable.html2离线安装 离线包下载地址download.pytorch.org/whl/torch_stable.html 安装方式 pip install torch-2.0.1cu118-cp310-cp310-win_amd64.whl注意 1PYTORCH与TORCHVISION版本对应问题 Pytorch与torchvision版本配套 如果你的conda解决环境很慢可以试一试pip安装。 2使用镜像源 使用镜像源pip install torch -i [镜像源]conda install torch -c [镜像源]常用镜像源清华源https://pypi.tuna.tsinghua.edu.cn/simple豆瓣源https://pypi.doubanio.com/simple/ 3安装验证 import torch # 打印出正在使用的PyTorch和CUDA版本。 print(torch.__version__) print(torch.version.cuda)# 测试GPU是否生效 print(torch.cuda.is_available())3导入PyToch 导入 PyTorch 并检查正在使用的版本。 import torch torch.__version__2.0.14Pycharm配置Anaconda环境 打开Pycharm点击File--New Project例如新建项目工程名字为Pycharm_conda选择新建工程所在文件位置并命名点击create。选择New Window。 在创建好的新工程窗口下点击File--Settings Settings--Project :Pycharm_conda--Python Interpreter, 然后点击右边齿轮状图标或者Add Interpreter点击Add 添加解释器。 打开后选择Conda Environment然后选中Existing environment选择自己创建的环境点击OK低版本可勾选Make available to all projects。 等待加载完毕后会看到在Python Interpreter页面多了许多包。表示在该环境下创建的工程就可以使用anaconda中已有的库了。 点击OK配置完成在主界面的右下角会显示当前环境处于刚配置好的环境中等待加载完毕后即可正常使用 使用terminal安装依赖 3 基本使用 1张量简介 张量英文为Tensor是机器学习的基本构建模块是以数字方式表示数据的形式。 例如图像可以表示为形状为 [3, 224, 224] 的张量这意味着 [colour_channels, height, width] 因为图像具有 3 颜色通道红色、绿色、蓝色高度为 224 像素宽度为 224 像素。 在张量语言用于描述张量的语言中张量将具有三个维度一个维度表示 colour_channels 、 height 和 width 。 2张量的基本使用 1. 张量的基本类型 # 0维张量标量(scalar) scalar torch.tensor(7) scalar.ndim0# 1维张量向量(vector) vector torch.tensor([7, 7]) vector.ndim1# 2维张量矩阵(matrix) MATRIX torch.tensor([[7, 8], [9, 10]]) MATRIX.ndim2# 多维张量 TENSOR torch.tensor([[[1, 2, 3],[3, 6, 9],[2, 4, 5]]]) TENSOR.ndim32. 张量的创建 1张量的基本创建方式 torch.tensor 根据指定数据创建张量torch.Tensor 根据形状创建张量, 其也可用来创建指定数据的张量torch.IntTensor、torch.FloatTensor、torch.DoubleTensor 创建指定类型的张量 1、torch.tensor() 根据指定数据创建张量 import torch import numpy as np# 1. 创建张量标量 data torch.tensor(10) print(data)tensor(10)# 2. numpy 数组, 由于 data 为 float64, 下面代码也使用该类型 data np.random.randn(2, 3) data torch.tensor(data) print(data)tensor([[ 0.1345, 0.1149, 0.2435],[ 0.8026, -0.6744, -1.0918]], dtypetorch.float64)# 3. 列表, 下面代码使用默认元素类型 float32 data [[10., 20., 30.], [40., 50., 60.]] data torch.tensor(data) print(data)tensor([[10., 20., 30.],[40., 50., 60.]])2、torch.Tensor() 根据指定形状创建张量也可以用来创建指定数据的张量 # 1. 创建2行3列的张量, 默认 dtype 为 float32 data torch.Tensor(2, 3) print(data)tensor([[0.0000e00, 3.6893e19, 2.2018e05],[4.6577e-10, 2.4158e-12, 1.1625e33]])# 2. 注意: 如果传递列表, 则创建包含指定元素的张量 data torch.Tensor([10]) print(data)tensor([10.])data torch.Tensor([10, 20]) print(data)tensor([10., 20.])3、torch.IntTensor()、torch.FloatTensor()、torch.DoubleTensor() 创建指定类型的张量 # 1. 创建2行3列, dtype 为 int32 的张量 data torch.IntTensor(2, 3) print(data)tensor([[ 0, 1610612736, 1213662609],[ 805308409, 156041223, 1]], dtypetorch.int32)# 2. 注意: 如果传递的元素类型不正确, 则会进行类型转换 data torch.IntTensor([2.5, 3.3]) print(data)tensor([2, 3], dtypetorch.int32)# 3. 其他的类型 data torch.ShortTensor() # int16 data torch.LongTensor() # int64 data torch.FloatTensor() # float32 data torch.DoubleTensor() # float642创建线性张量和随机张量 torch.arange 和 torch.linspace 创建线性张量torch.random.init_seed 和 torch.random.manual_seed 随机种子设置torch.randn 创建随机张量 1、torch.arange()、torch.linspace() 创建线性张量 # 1. 在指定区间按照步长生成元素 [start, end, step) data torch.arange(0, 10, 2) print(data)tensor([0, 2, 4, 6, 8])# 2. 在指定区间按照元素个数生成 [start, end, steps] data torch.linspace(0, 11, 10) print(data)tensor([0.0000, 1.2222, 2.4444, 3.6667, 4.8889, 6.1111, 7.3333, 8.5556, 9.7778, 11.0000])2、随机种子操作 torch.random.initial_seed()查看随机种子torch.random.manual_seed() 设置随机数种子torch.randn() 创建随机张量 # 1. 创建随机张量 data torch.randn(2, 3) # 创建2行3列张量 print(data)tensor([[-0.5209, -0.2439, -1.1780],[ 0.8133, 1.1442, 0.6790]])# 2.查看随机数种子 print(随机数种子:, torch.random.initial_seed())随机数种子: 4508475192273306739# 3.设置随机数种子 torch.random.manual_seed(100) data torch.randn(2, 3) print(data) print(随机数种子:, torch.random.initial_seed())tensor([[ 0.3607, -0.2859, -0.3938],[ 0.2429, -1.3833, -2.3134]])随机数种子: 1003创建0-1张量 torch.ones 和 torch.ones_like 创建全1张量torch.zeros 和 torch.zeros_like 创建全0张量torch.full 和 torch.full_like 创建全为指定值张量 1、torch.ones()、torch.ones_like() 创建全1张量 # 1. 创建指定形状全0张量 data torch.zeros(2, 3) print(data)tensor([[0., 0., 0.],[0., 0., 0.]])# 2. 根据张量形状创建全0张量 data torch.zeros_like(data) print(data)tensor([[0., 0., 0.],[0., 0., 0.]])2、torch.zeros()、torch.zeros_like() 创建全0张量 # 1. 创建指定形状全1张量 data torch.ones(2, 3) print(data)tensor([[1., 1., 1.],[1., 1., 1.]])# 2. 根据张量形状创建全1张量 data torch.ones_like(data) print(data)tensor([[1., 1., 1.],[1., 1., 1.]])3、torch.full()、torch.full_like() 创建全为指定值张量 # 1. 创建指定形状指定值的张量 data torch.full([2, 3], 10) print(data)tensor([[10, 10, 10],[10, 10, 10]])# 2. 根据张量形状创建指定值的张量 data torch.full_like(data, 20) print(data)tensor([[20, 20, 20],[20, 20, 20]])4张量元素类型转换 data.type(torch.DoubleTensor)data.double() 1、data.type(torch.DoubleTensor) data torch.full([2, 3], 10) print(data.dtype)torch.int64# 将 data 元素类型转换为 float64 类型 data data.type(torch.DoubleTensor) print(data.dtype)torch.float64# 转换为其他类型 # data data.type(torch.ShortTensor) # int16 # data data.type(torch.IntTensor) # int32 # data data.type(torch.LongTensor) # int64 # data data.type(torch.FloatTensor) # float322、data.double() data torch.full([2, 3], 10) print(data.dtype)torch.int64# 将 data 元素类型转换为 float64 类型 data data.double() print(data.dtype)torch.float64# 转换为其他类型 # data data.short() # data data.int() # data data.long() # data data.float()5总结 1 创建张量的方式 torch.tensor() 根据指定数据创建张量torch.Tensor() 根据形状创建张量, 其也可用来创建指定数据的张量torch.IntTensor()、torch.FloatTensor()、torch.DoubleTensor() 创建指定类型的张量 2 创建线性和随机张量 torch.arrange() 和 torch.linspace() 创建线性张量torch.random.initial_seed() 和 torch.random.manual_seed() 随机种子设置torch.randn() 创建随机张量 3 创建01张量 torch.ones() 和 torch.ones_like() 创建全1张量torch.zeros() 和 torch.zeros_like() 创建全0张量torch.full() 和 torch.full_like() 创建全为指定值张量 4 张量元素类型转换 data.type(torch.DoubleTensor)data.double() 3. 张量的类型转换 1张量转换为NUMPY数组 使用 Tensor.numpy 函数可以将张量转换为 ndarray 数组但是共享内存可以使用 copy 函数避免共享。 # 1. 将张量转换为 numpy 数组 data_tensor torch.tensor([2, 3, 4]) # 使用张量对象中的 numpy 函数进行转换 data_numpy data_tensor.numpy() print(type(data_tensor))class torch.Tensorprint(type(data_numpy))class numpy.ndarray# 注意: data_tensor 和 data_numpy 共享内存 # 修改其中的一个另外一个也会发生改变 # data_tensor[0] 100 data_numpy[0] 100 print(data_tensor)tensor([100, 3, 4])print(data_numpy)[100 3 4]# 2. 对象拷贝避免共享内存 data_tensor torch.tensor([2, 3, 4]) # 使用张量对象中的 numpy 函数进行转换通过copy方法拷贝对象 data_numpy data_tensor.numpy().copy() print(type(data_tensor))class torch.Tensorprint(type(data_numpy))class numpy.ndarray# 注意: data_tensor 和 data_numpy 此时不共享内存 # 修改其中的一个另外一个不会发生改变 # data_tensor[0] 100 data_numpy[0] 100 print(data_tensor)tensor([2, 3, 4])print(data_numpy)[100 3 4]2NUMPY数组转换为张量 使用 from_numpy 可以将 ndarray 数组转换为 Tensor默认共享内存使用 copy 函数避免共享。 data_numpy np.array([2, 3, 4]) # 将 numpy 数组转换为张量类型 # 1. from_numpy # 2. torch.tensor(ndarray) data_tensor torch.from_numpy(data_numpy) # nunpy 和 tensor 共享内存 # data_numpy[0] 100 data_tensor[0] 100 print(data_tensor)tensor([100, 3, 4], dtypetorch.int32)print(data_numpy)[100 3 4]使用 torch.tensor 可以将 ndarray 数组转换为 Tensor默认不共享内存。 data_numpy np.array([2, 3, 4]) data_tensor torch.tensor(data_numpy) # nunpy 和 tensor 不共享内存 # data_numpy[0] 100 data_tensor[0] 100 print(data_tensor)tensor([100, 3, 4], dtypetorch.int32)print(data_numpy)[2 3 4]3标量张量和数字转换 对于只有一个元素的张量使用item()函数将该值从张量中提取出来 # 当张量只包含一个元素时, 可以通过 item() 函数提取出该值 data torch.tensor([30,]) print(data.item())30data torch.tensor(30) print(data.item())304总结 1. 张量转换为 numpy 数组 data_tensor.numpy() data_tensor.numpy().copy() 2. numpy 转换为张量 torch.from_numpy(data_numpy) torch.tensor(data_numpy) 3. 标量张量和数字转换 data.item() 4. 张量的数值计算 1张量基本运算 加减乘除取负号 add、sub、mul、div、neg add_、sub_、mul_、div_、neg_其中带下划线的版本会修改原数据 data torch.randint(0, 10, [2, 3]) print(data)tensor([[3, 7, 4],[0, 0, 6]])# 1. 不修改原数据 new_data data.add(10) # 等价 new_data data 10 print(new_data)tensor([[13, 17, 14],[10, 10, 16]])# 2. 直接修改原数据 注意: 带下划线的函数为修改原数据本身 data.add_(10) # 等价 data 10 print(data)tensor([[13, 17, 14],[10, 10, 16]])# 3. 其他函数 print(data.sub(100))tensor([[-87, -83, -86],[-90, -90, -84]])print(data.mul(100))tensor([[1300, 1700, 1400],[1000, 1000, 1600]])print(data.div(100))tensor([[0.1300, 0.1700, 0.1400],[0.1000, 0.1000, 0.1600]])print(data.neg())tensor([[-13, -17, -14],[-10, -10, -16]])2张量点乘运算 点乘指Hadamard的是两个同维矩阵对应位置的元素相乘使用mul 和运算符 * 实现。 data1 torch.tensor([[1, 2], [3, 4]]) data2 torch.tensor([[5, 6], [7, 8]]) # 第一种方式 data torch.mul(data1, data2) print(data)tensor([[ 5, 12],[21, 32]])# 第二种方式 data data1 * data2 print(data)tensor([[ 5, 12],[21, 32]])3张量矩阵乘法运算 矩阵乘法运算要求第一个矩阵 shape: (n, m)第二个矩阵 shape: (m, p), 两个矩阵点积运算 shape 为: (n, p)。 运算符 用于进行两个矩阵的乘积运算 torch.matmul 对进行乘积运算的两矩阵形状没有限定.对数输入的 shape 不同的张量, 对应的最后几个维度必须符合矩阵运算规则 # 点积运算 data1 torch.tensor([[1, 2], [3, 4], [5, 6]]) data2 torch.tensor([[5, 6], [7, 8]]) # 方式一: data3 data1 data2 print(data3--, data3)data3-- tensor([[19, 22],[43, 50],[67, 78]])# 方式二: data4 torch.matmul(data1, data2) print(data4--, data4)data4-- tensor([[19, 22],[43, 50],[67, 78]])4总结 1 张量基本运算函数 add、sub、mul、div、neg等函数 add_、sub_、mul_、div_、neg_等函数 2 张量的点乘运算 mul 和运算符 * 3 点积运算 运算符用于进行两个矩阵的点乘运算 torch.matmul 对进行点乘运算的两矩阵形状没有限定对数输入的 shape 不同的张量, 对应的最后几个维度必须符合矩阵运算规则 5. 张量的运算函数 PyTorch 为每个张量封装很多实用的计算函数 均值 平方根 求和指数计算对数计算等等 import torchdata torch.randint(0, 10, [2, 3], dtypetorch.float64) print(data)tensor([[4., 0., 7.],[6., 3., 5.]], dtypetorch.float64)# 1. 计算均值 # 注意: tensor 必须为 Float 或者 Double 类型 print(data.mean())tensor(4.1667, dtypetorch.float64)print(data.mean(dim0)) # 按列计算均值tensor([5.0000, 1.5000, 6.0000], dtypetorch.float64)print(data.mean(dim1)) # 按行计算均值tensor([3.6667, 4.6667], dtypetorch.float64)# 2. 计算总和 print(data.sum())tensor(25., dtypetorch.float64)print(data.sum(dim0))tensor([10., 3., 12.], dtypetorch.float64)print(data.sum(dim1))tensor([11., 14.], dtypetorch.float64)# 3. 计算平方 print(torch.pow(data2))tensor([[16., 0., 49.],[36., 9., 25.]], dtypetorch.float64)# 4. 计算平方根 print(data.sqrt())tensor([[2.0000, 0.0000, 2.6458],[2.4495, 1.7321, 2.2361]], dtypetorch.float64)# 5. 指数计算, e^n 次方 print(data.exp())tensor([[5.4598e01, 1.0000e00, 1.0966e03],[4.0343e02, 2.0086e01, 1.4841e02]], dtypetorch.float64)# 6. 对数计算 print(data.log()) # 以 e 为底tensor([[1.3863, -inf, 1.9459],[1.7918, 1.0986, 1.6094]], dtypetorch.float64)print(data.log2())tensor([[2.0000, -inf, 2.8074],[2.5850, 1.5850, 2.3219]], dtypetorch.float64)print(data.log10())tensor([[0.6021, -inf, 0.8451],[0.7782, 0.4771, 0.6990]], dtypetorch.float64)6. 张量的索引操作 在操作张量时经常要去获取某些元素进行处理或者修改操作在这里需要了解torch中的索引操作。 准备数据 import torch # 随机生成数据 data torch.randint(0, 10, [4, 5]) print(data)tensor([[0, 7, 6, 5, 9],[6, 8, 3, 1, 0],[6, 3, 8, 7, 3],[4, 9, 5, 3, 1]])1简单行列索引的使用 print(data[0])tensor([0, 7, 6, 5, 9])print(data[:, 0])tensor([0, 6, 6, 4])2列表索引的使用 # 返回 (0, 2)、(1, 3) 两个位置的元素 print(data[[0, 1], [2, 3]])tensor([7, 3])# 返回 0、1 行的 1、2 列共4个元素 print(data[[[0], [1]], [1, 2]])tensor([[7, 6],[8, 3]])3范围索引的使用 # 前3行的前2列数据 print(data[:3, :2])tensor([[0, 7],[6, 8],[6, 3]])# 第2行到最后的前2列数据 print(data[2:, :2])tensor([[6, 3],[4, 9]])# 第0行、第2行的第0、1两列数据 print(data[0:3:2, :2]) tensor([[0, 7],[6, 3]])4布尔索引的使用 # 第三列大于5的行数据 print(data[data[:, 2] 5])tensor([[0, 7, 6, 5, 9],[6, 3, 8, 7, 3]])# 第二行大于5的列数据 print(data[:, data[1] 5])tensor([[0, 7],[6, 8],[6, 3],[4, 9]])5多维索引的使用 data torch.randint(0, 10, [3, 4, 5]) print(data)tensor([[[2, 4, 1, 2, 3],[5, 5, 1, 5, 0],[1, 4, 5, 3, 8],[7, 1, 1, 9, 9]],[[9, 7, 5, 3, 1],[8, 8, 6, 0, 1],[6, 9, 0, 2, 1],[9, 7, 0, 4, 0]],[[0, 7, 3, 5, 6],[2, 4, 6, 4, 3],[2, 0, 3, 7, 9],[9, 6, 4, 4, 4]]])# 获取0轴上的第一个数据 print(data[0, :, :])tensor([[2, 4, 1, 2, 3],[5, 5, 1, 5, 0],[1, 4, 5, 3, 8],[7, 1, 1, 9, 9]])# 获取1轴上的第一个数据 print(data[:, 0, :])tensor([[2, 4, 1, 2, 3],[9, 7, 5, 3, 1],[0, 7, 3, 5, 6]])# 获取2轴上的第一个数据 print(data[:, :, 0])tensor([[2, 5, 1, 7],[9, 8, 6, 9],[0, 2, 2, 9]])7.张量的形状操作 有重塑、堆叠、挤压和解压 方法单行描述torch.reshape(input, shape)重塑 input 到 shape 如果兼容也可以使用 torch.Tensor.reshape()。tensor.view(shape)返回不同 shape 中的原始张量视图但与原始张量共享相同的数据。tensor.contiguous()将张量转换到整块内存上torch.stack(tensors, dim0)沿着新的维度dim连接 tensors 的序列所有 tensors 必须具有相同的大小。torch.squeeze(input)挤压 input 以移除值为 1 的所有尺寸。torch.unsqueeze(input, dim)返回在 dim 处添加了维度值 1 的 input。torch.transpose(input,dim1,dim2)实现交换张量形状的指定维度torch.permute(input, dims)返回原始 input 的视图其尺寸被置换重新排列为 dims。 深度学习模型神经网络都是以某种方式操纵张量。由于矩阵乘法的规则如果形状不匹配就会遇到错误。这些方法可帮助您确保张量的正确元素与其他张量的正确元素混合。 举例说明 import torch x torch.arange(1., 8.) print(x)tensor([1., 2., 3., 4., 5., 6., 7.])print(x.shape)torch.Size([7])1RESHAPE reshape 函数可以在保证张量数据不变的前提下改变数据的维度将其转换成指定的形状。 使用 torch.reshape() 增加一个维度。 # 增加一个维度 x_reshaped x.reshape(1, 7) print(x_reshaped)tensor([[1., 2., 3., 4., 5., 6., 7.]])print(x_reshaped.shape)torch.Size([1, 7])使用 torch.reshape() 改变张量的形状。 import torchdata torch.tensor([[10, 20, 30], [40, 50, 60]]) # 1. 使用 shape 属性或者 size 方法都可以获得张量的形状 print(data.shape, data.shape[0], data.shape[1])torch.Size([2, 3]) 2 3print(data.size(), data.size(0), data.size(1))torch.Size([2, 3]) 2 3# 2. 使用 reshape 函数修改张量形状 new_data data.reshape(1, 6) print(new_data.shape)torch.Size([1, 6])2VIEW / CONTIGUOUS view 函数也可以用于修改张量的形状只能用于存储在整块内存中的张量。在 PyTorch 中有些张量是由不同的数据块组成的它们并没有存储在整块的内存中view 函数无法对这样的张量进行变形处理。例如: 一个张量经过了 transpose 或者 permute 函数的处理之后就无法使用 view 函数进行形状操作。此时需要先使用 contiguous 函数转换为整块内存的张量再使用 view 函数。 # 1 一个张量经过了 transpose 或者 permute 函数的处理之后就无法使用 view 函数进行形状操作 # 若要使用view函数, 需要使用contiguous() 变成连续以后再使用view函数 # 2 判断张量是否使用整块内存 data torch.tensor( [[10, 20, 30],[40, 50, 60]]) print(data---, data, data.shape)data--- tensor([[10, 20, 30],[40, 50, 60]]) torch.Size([2, 3])# 1 判断是否使用整块内存 print(data.is_contiguous())True# 2 view mydata2 data.view(3, 2) print(mydata2---, mydata2, mydata2.shape)mydata2--- tensor([[10, 20],[30, 40],[50, 60]]) torch.Size([3, 2])# 3 判断是否使用整块 print(mydata2.is_contiguous()---, mydata2.is_contiguous())mydata2.is_contiguous()--- True# 4 使用 transpose 函数修改形状 mydata3 torch.transpose(data, 0, 1) print(mydata3---, mydata3, mydata3.shape)mydata3--- tensor([[10, 40],[20, 50],[30, 60]]) torch.Size([3, 2])print(mydata3.is_contiguous()---, mydata3.is_contiguous())mydata3.is_contiguous()--- False# 5 需要先使用 contiguous 函数转换为整块内存的张量再使用 view 函数 print (mydata3.contiguous().is_contiguous())Truemydata4 mydata3.contiguous().view(2, 3) print(mydata4---, mydata4.shape, mydata4)mydata4--- torch.Size([2, 3]) tensor([[10, 40, 20],[50, 30, 60]])3STACK 如果想将新张量堆叠五次使用 torch.stack() 来实现。 # Stack tensors on top of each other x_stacked torch.stack([x, x, x, x], dim0) # 同pandas的axis按行堆叠 tensor([[5., 2., 3., 4., 5., 6., 7.],[5., 2., 3., 4., 5., 6., 7.],[5., 2., 3., 4., 5., 6., 7.],[5., 2., 3., 4., 5., 6., 7.]])4SQUEEZE / UNSQUEEZE squeeze 函数删除形状为 1 的维度降维unsqueeze 函数添加形状为1的维度升维。 mydata1 torch.tensor([1, 2, 3, 4, 5]) print(mydata1---, mydata1.shape, mydata1) # 一个普通的数组 1维数据mydata1--- torch.Size([5]) tensor([1, 2, 3, 4, 5])mydata2 mydata1.unsqueeze(dim0) print(在0维度上 拓展维度, mydata2, mydata2.shape) #1*5在0维度上 拓展维度 tensor([[1, 2, 3, 4, 5]]) torch.Size([1, 5])mydata3 mydata1.unsqueeze(dim1) print(在1维度上 拓展维度, mydata3, mydata3.shape) #5*1在1维度上 拓展维度 tensor([[1],[2],[3],[4],[5]]) torch.Size([5, 1])mydata4 mydata1.unsqueeze(dim-1) print(在-1维度上 拓展维度, mydata4, mydata4.shape) #5*1在-1维度上 拓展维度 tensor([[1],[2],[3],[4],[5]]) torch.Size([5, 1])mydata5 mydata4.squeeze() print(压缩维度, mydata5, mydata5.shape) #1*5压缩维度 tensor([1, 2, 3, 4, 5]) torch.Size([5])5TRANSPOSE/ PERMUTE transpose 函数可以实现交换张量形状的指定维度, 例如: 一个张量的形状为 (2, 3, 4) 可以通过 transpose 函数把 3 和 4 进行交换, 将张量的形状变为 (2, 4, 3) 。 permute 函数可以一次交换更多的维度。 data torch.tensor(np.random.randint(0, 10, [3, 4, 5])) print(data shape:, data.size())data shape: torch.Size([3, 4, 5])# 1 交换1和2维度 mydata2 torch.transpose(data, 1, 2) print(mydata2.shape---, mydata2.shape)mydata2.shape--- torch.Size([3, 5, 4])# 2 将data 的形状修改为 (4, 5, 3), 需要变换多次 mydata3 torch.transpose(data, 0, 1) mydata4 torch.transpose(mydata3, 1, 2) print(mydata4.shape---, mydata4.shape)mydata4.shape--- torch.Size([4, 5, 3])# 3 使用 permute 函数将形状修改为 (4, 5, 3) # 3-1 方法1 mydata5 torch.permute(data, [1, 2, 0]) print(mydata5.shape---, mydata5.shape)mydata5.shape--- torch.Size([4, 5, 3])# 3-2 方法2 mydata6 data.permute([1, 2, 0]) print(mydata6.shape---, mydata6.shape)mydata6.shape--- torch.Size([4, 5, 3])6总结 1 reshape 函数可以在保证张量数据不变的前提下改变数据的维度 2 squeeze 和 unsqueeze 函数可以用来增加或者减少维度 3 transpose 函数可以实现交换张量形状的指定维度, permute 可以一次交换更多的维度 4 view 函数也可以用于修改张量的形状, 但是它要求被转换的张量内存必须连续所以一般配合 contiguous 函数使用 8.张量的拼接操作 torch.cat() import torch data1 torch.randint(0, 10, [1, 2, 3]) data2 torch.randint(0, 10, [1, 2, 3]) print(data1)tensor([[[7, 8, 7],[6, 3, 6]]])print(data2)tensor([[[3, 6, 5],[7, 5, 0]]])# 1. 按0维度拼接 new_data torch.cat([data1, data2], dim0) print(new_data)tensor([[[7, 8, 7],[6, 3, 6]],[[3, 6, 5],[7, 5, 0]]])print(new_data.shape)torch.Size([2, 2, 3])# 2. 按1维度拼接 new_data torch.cat([data1, data2], dim1) print(new_data)tensor([[[7, 8, 7],[6, 3, 6],[3, 6, 5],[7, 5, 0]]])print(new_data.shape)torch.Size([1, 4, 3])# 3. 按2维度拼接 new_data torch.cat([data1, data2], dim2) print(new_data)tensor([[[7, 8, 7, 3, 6, 5],[6, 3, 6, 7, 5, 0]]])print(new_data.shape)torch.Size([1, 2, 6])9.自动微分模块 训练神经网络时最常用的算法就是反向传播。在该算法中参数模型权重会根据损失函数关于对应参数的梯度进行调整。为了计算这些梯度PyTorch内置了名为 torch.autograd 的微分引擎。它支持任意计算图的自动梯度计算 使用 backward 方法、grad 属性来实现梯度的计算和访问 输入为标量时的梯度计算 import torch # 1. 当X为标量时梯度的计算 def test01():x torch.tensor(5)# 目标值y torch.tensor(0.)# 设置要更新的权重和偏置的初始值w torch.tensor(1., requires_gradTrue, dtypetorch.float32)b torch.tensor(3., requires_gradTrue, dtypetorch.float32)# 设置网络的输出值z x * w b # 矩阵乘法# 设置损失函数并进行损失的计算loss torch.nn.MSELoss()loss loss(z, y)# 自动微分loss.backward()# 打印 w,b 变量的梯度# backward 函数计算的梯度值会存储在张量的 grad 变量中print(W的梯度:, w.grad)print(b的梯度, b.grad) # X是标量时的结果 # 输出结果: W的梯度: tensor(80.) b的梯度 tensor(16.)输入为多维张量时的梯度计算 import torch def test02():# 输入张量 2*5x torch.ones(2,5)# 目标值是 2*3y torch.zeros(2,3)# 设置要更新的权重和偏置的初始值w torch.randn(5, 3,requires_gradTrue)b torch.randn(3, requires_gradTrue)# 设置网络的输出值z torch.matmul(x, w) b # 矩阵乘法# 设置损失函数并进行损失的计算loss torch.nn.MSELoss()loss loss(z, y)# 自动微分loss.backward()# 打印 w,b 变量的梯度# backward 函数计算的梯度值会存储在张量的 grad 变量中print(W的梯度:, w.grad)print(b的梯度, b.grad)# 输出结果: W的梯度: tensor( [[ 0.0757, 0.6087, -0.6538], [ 0.0757, 0.6087, -0.6538], [ 0.0757, 0.6087, -0.6538], [ 0.0757, 0.6087, -0.6538], [ 0.0757, 0.6087, -0.6538]]) b的梯度 tensor([ 0.0757, 0.6087, -0.6538])4 案例-线性回归案例 使用 PyTorch 的 nn.MSELoss() 代替自定义的平方损失函数使用 PyTorch 的 data.DataLoader 代替自定义的数据加载器使用 PyTorch 的 optim.SGD 代替自定义的优化器使用 PyTorch 的 nn.Linear 代替自定义的假设函数 1导入工具包 # 导入相关模块 import torch from torch.utils.data import TensorDataset # 构造数据集对象 from torch.utils.data import DataLoader # 数据加载器 from torch import nn # nn模块中有平方损失函数和假设函数 from torch import optim # optim模块中有优化器函数 from sklearn.datasets import make_regression # 创建线性回归模型数据集 import matplotlib.pyplot as pltplt.rcParams[font.sans-serif] [SimHei] # 用来正常显示中文标签 plt.rcParams[axes.unicode_minus] False # 用来正常显示负号2数据集构建 def create_dataset():x, y, coef make_regression(n_samples100,n_features1,noise10,coefTrue,bias1.5,random_state0)# 将构建数据转换为张量类型x torch.tensor(x)y torch.tensor(y)return x, y, coefif __name__ __main__: # 生成的数据 x,y,coefcreate_dataset()# 绘制数据的真实的线性回归结果plt.scatter(x, y)x torch.linspace(x.min(), x.max(), 1000) y1 torch.tensor([v * coef 1.5 for v in x]) plt.plot(x, y1, labelreal’) plt.grid() plt.legend() plt.show()3数据加载器构建及模型构建 # 构造数据集 x, y, coef create_dataset() # 构造数据集对象 dataset TensorDataset(x, y) # 构造数据加载器 # dataset:数据集对象 # batch_size:批量训练样本数据 # shuffle:样本数据是否进行乱序 dataloader DataLoader(datasetdataset, batch_size16, shuffleTrue) # 构造模型 # in_features指的是输入张量的大小size # out_features指的是输出张量的大小sizemodel nn.Linear(in_features1, out_features1)4训练参数设置 # 构造平方损失函数 criterion nn.MSELoss() # 构造优化函数 optimizer optim.SGD(paramsmodel.parameters(), lr1e-2)5模型训练 epochs 100 # 损失的变化 loss_epoch [] total_loss 0.0 train_sample 0.0 for _ in range(epochs):for train_x, train_y in dataloader:# 将一个batch的训练数据送入模型y_pred model(train_x.type(torch.float32))# 计算损失值loss criterion(y_pred, train_y.reshape(-1, 1).type(torch.float32))total_loss loss.item()train_sample len(train_y)# 梯度清零optimizer.zero_grad()# 自动微分(反向传播)loss.backward()# 更新参数optimizer.step()# 获取每个batch的损失loss_epoch.append(total_loss / train_sample)6构建训练模型函数 # 绘制损失变化曲线 plt.plot(range(epochs), loss_epoch) plt.title(损失变化曲线) plt.grid() plt.show() # 绘制拟合直线 plt.scatter(x, y) x torch.linspace(x.min(), x.max(), 1000) y1 torch.tensor([v * model.weight model.bias for v in x]) y2 torch.tensor([v * coef 1.5 for v in x]) plt.plot(x, y1, label训练) plt.plot(x, y2, label真实) plt.grid() plt.legend() plt.show()
http://www.dnsts.com.cn/news/82377.html

相关文章:

  • 前端网站做中 英文怎么说网站建设的频道是什么意思
  • 网站建设网络推广公司有哪些广西学校论坛网站建设
  • 做体彩网站怎么做西安博网站建设
  • 义乌公司网站制作网页制作和网站制作有什么区别
  • 高仿id97网站模板深圳网站开发找哪里
  • 如何创建电子商务网站南阳东莞网站建设公司哪家好
  • 满版型网站有哪些关闭网站后弹窗代码
  • 我想在阿里巴巴做卫生纸的网站安徽观元建设有限公司网站
  • 静安网站开发wordpress分享朋友圈
  • 可信赖的赣州网站建设游戏平台网站的建设规划
  • 泰安市景区建设网站呼和浩特 的网站建设
  • 公司的英文网站百度渠道开户哪里找
  • 网站优化包括哪些内容怎么做营销策划方案
  • 商务礼品网站模板免费永久网站注册
  • 做淘宝必备网站天津有哪些有名的网站建设公司
  • 上海微信网站开发益阳建设企业网站
  • 广州外贸soho建站微信群发软件
  • 网站的建设与预算哪些网站做推广
  • 遵义网站建设制作wordpress的链接功能
  • 如何与网站建立私密关系做网站网站代理违法吗
  • 低价网站建设行业现状合肥网红打卡地
  • 网站文案标准格式怎样用html制作网站
  • 高端品牌建站网站里面那些工作是做晚上兼职的
  • 网站运营需要哪些技术统一登录入口
  • 网站用户注册怎么建深圳市市长
  • 网站建设的技术支持百度知道一下
  • 网站建立好如何做seo网站接入服务商查询
  • html5响应式企业网站弄一个公司网站需要多少钱
  • 电子商务网站建设前景深圳罗湖网站建设公司
  • 网站职业技能培训班怎么做网站的seo优化