当前位置: 首页 > news >正文

小企业如何建网站网站空间200m

小企业如何建网站,网站空间200m,海外平台推广方法,超酷html5效果的工作室网站程序8.1 损失函数 ① Loss损失函数一方面计算实际输出和目标之间的差距。 ② Loss损失函数另一方面为我们更新输出提供一定的依据。 8.2 L1loss损失函数 ① L1loss数学公式如下图所示#xff0c;例子如下下图所示。 import torch from torch.nn import L1Loss inputs torch.tens…8.1 损失函数 ① Loss损失函数一方面计算实际输出和目标之间的差距。 ② Loss损失函数另一方面为我们更新输出提供一定的依据。 8.2 L1loss损失函数  ① L1loss数学公式如下图所示例子如下下图所示。 import torch from torch.nn import L1Loss inputs torch.tensor([1,2,3],dtypetorch.float32) targets torch.tensor([1,2,5],dtypetorch.float32) inputs torch.reshape(inputs,(1,1,1,3)) targets torch.reshape(targets,(1,1,1,3)) loss L1Loss() # 默认为 maen result loss(inputs,targets) print(result) 结果 tensor(0.6667)import torch from torch.nn import L1Loss inputs torch.tensor([1,2,3],dtypetorch.float32) targets torch.tensor([1,2,5],dtypetorch.float32) inputs torch.reshape(inputs,(1,1,1,3)) targets torch.reshape(targets,(1,1,1,3)) loss L1Loss(reductionsum) # 修改为sum三个值的差值然后取和 result loss(inputs,targets) print(result) 结果 tensor(2.) 8.3  MSE损失函数 ① MSE损失函数数学公式如下图所示。 import torch from torch.nn import L1Loss from torch import nn inputs torch.tensor([1,2,3],dtypetorch.float32) targets torch.tensor([1,2,5],dtypetorch.float32) inputs torch.reshape(inputs,(1,1,1,3)) targets torch.reshape(targets,(1,1,1,3)) loss_mse nn.MSELoss() result_mse loss_mse(inputs,targets) print(result_mse) 结果 tensor(1.3333) 8.4 交叉熵损失函数 ① 交叉熵损失函数数学公式如下图所示。 import torch from torch.nn import L1Loss from torch import nnx torch.tensor([0.1,0.2,0.3]) y torch.tensor([1]) x torch.reshape(x,(1,3)) # 1的 batch_size有三类 loss_cross nn.CrossEntropyLoss() result_cross loss_cross(x,y) print(result_cross) 结果 tensor(1.1019) 8.5 搭建神经网络 import torch import torchvision from torch import nn from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriterdataset torchvision.datasets.CIFAR10(./dataset,trainFalse,transformtorchvision.transforms.ToTensor(),downloadTrue) dataloader DataLoader(dataset, batch_size1,drop_lastTrue)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__() self.model1 Sequential(Conv2d(3,32,5,padding2),MaxPool2d(2),Conv2d(32,32,5,padding2),MaxPool2d(2),Conv2d(32,64,5,padding2),MaxPool2d(2),Flatten(),Linear(1024,64),Linear(64,10))def forward(self, x):x self.model1(x)return xtudui Tudui() for data in dataloader:imgs, targets dataoutputs tudui(imgs)print(outputs)print(targets) 结果 8.6 数据集计算损失函数 import torch import torchvision from torch import nn from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriterdataset torchvision.datasets.CIFAR10(./dataset,trainFalse,transformtorchvision.transforms.ToTensor(),downloadTrue) dataloader DataLoader(dataset, batch_size64,drop_lastTrue)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__() self.model1 Sequential(Conv2d(3,32,5,padding2),MaxPool2d(2),Conv2d(32,32,5,padding2),MaxPool2d(2),Conv2d(32,64,5,padding2),MaxPool2d(2),Flatten(),Linear(1024,64),Linear(64,10))def forward(self, x):x self.model1(x)return xloss nn.CrossEntropyLoss() # 交叉熵 tudui Tudui() for data in dataloader:imgs, targets dataoutputs tudui(imgs)result_loss loss(outputs, targets) # 计算实际输出与目标输出的差距print(result_loss) 结果 8.7 损失函数反向传播 ① 反向传播通过梯度来更新参数使得loss损失最小如下图所示。 import torch import torchvision from torch import nn from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriterdataset torchvision.datasets.CIFAR10(./dataset,trainFalse,transformtorchvision.transforms.ToTensor(),downloadTrue) dataloader DataLoader(dataset, batch_size64,drop_lastTrue)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__() self.model1 Sequential(Conv2d(3,32,5,padding2),MaxPool2d(2),Conv2d(32,32,5,padding2),MaxPool2d(2),Conv2d(32,64,5,padding2),MaxPool2d(2),Flatten(),Linear(1024,64),Linear(64,10))def forward(self, x):x self.model1(x)return xloss nn.CrossEntropyLoss() # 交叉熵 tudui Tudui() for data in dataloader:imgs, targets dataoutputs tudui(imgs)result_loss loss(outputs, targets) # 计算实际输出与目标输出的差距result_loss.backward() # 计算出来的 loss 值有 backward 方法属性反向传播来计算每个节点的更新的参数。这里查看网络的属性 grad 梯度属性刚开始没有反向传播计算出来后才有后面优化器会利用梯度优化网络参数。 print(ok)
http://www.dnsts.com.cn/news/113674.html

相关文章:

  • 网站建设关闭窗口代码网站的按钮怎么做 视频
  • 北京网站建设 shwl网站设计创新点怎么写
  • 四川建设部网站官网石狮建设银行网站
  • 邯郸网站建设市场网站不允许上传文件
  • 昆明做网站优化凡客另一购物网站
  • 网站建设属于税收wordpress文件调用
  • 网站建设英文方案企业营销型网站团队
  • 荧光字体制作网站房地产开发资质需要什么条件
  • wordpress小工具制作浙江seo技术培训
  • js网站统计代码西安最有名的策划公司
  • 巴中移动网站建设wordpress汉化插件软件
  • 印刷下单网站开发贺州网站制作
  • 松江网站开发培训课程赣州seo唐三
  • 建设网站公司管备案么大连商城网站制作公司
  • 网站建设维护招聘智能网站开发工具
  • 人寿保险网站企业网站留言板
  • 网站服务器租用哪家好个人能建设网站吗
  • 广东企业网站模板定制网站设计风格介绍
  • php企业门户网站上海app系统开发
  • 深圳好蜘蛛网站建设公司wordpress 主机安装教程
  • 微妙音门户网站建设微商城平台排名
  • 安庆市住房和建设厅网站wordpress使用什么数据库
  • 南昌网站建设是什么意思如何备份网站程序
  • 网站添加站长统计代码宝坻网站建设
  • 哪个网站公司做的做二维码的网站
  • 建设好的网站wordpress首页图片管理
  • 中国做视频网站有哪些网站关键词太多好不好
  • 广州网站建设制作衡水seo优化
  • 做阿里巴巴网站成都软件开发公司排名
  • 兴义市住房和城乡建设局网签网站南宁高新区建设房产局网站