当前位置: 首页 > news >正文

网站建设中html网页城乡住房建设厅网站

网站建设中html网页,城乡住房建设厅网站,湖北省建设厅乡镇污水官方网站,网站建设与网页设计制作书籍感知机 感知机形象的来看就是我们接触过的一个只有两个部分组成#xff08;输出和输入#xff09;组成的最简单的神经网络之一。 给定输入x#xff0c;权重w和偏移b以及一个感知函数#xff0c;感知机就能输出#xff1a; 这个函数可以形象的用作二分类问题#xff0c;…感知机 感知机形象的来看就是我们接触过的一个只有两个部分组成输出和输入组成的最简单的神经网络之一。 给定输入x权重w和偏移b以及一个感知函数感知机就能输出 这个函数可以形象的用作二分类问题o输出几就可以把他作为哪个类 但是单层感知机有一个很大的局限性就是——它只能解决线性可分的问题也就是在超平面上只能构成一条线来区分数据 异或问题也就是XOR问题就是非线性可分的问题为了解决它引出了多层感知机 多层感知机 使用多层感知机就可以在超平面上构造两条线将数据区分开了 我们使用多层感知机配合上softmax计算就能解决一些多分类的问题这里把softmax也可以看做层一对一而非全连接的层输出当前样本可能是哪一个类别的概率 在每个隐藏层中都会添加激活函数来对神经元做激活常见的激活函数有SIGMOD、Relu 激活函数 激活函数都是非线性函数 SIGMOD函数能够将一个实数域的结果映射到01之间 sigmoid11exp(−x)sigmoid\frac{1}{1exp(-x)} sigmoid1exp(−x)1​ 这个激活函数在以前比较常用因为他会存在一些梯度丢失的问题导致现在也很少有人用了 目前比较常用的函数——Relu激活函数 他的数学表达很简单 ReLu(x)max(x,0)ReLu(x)max(x,0) ReLu(x)max(x,0) 本质上是一个一段分段的非线性函数 代码实现 在本节书中的代码实现中我们发现在每一个实现中为了实现一个多分类的多层个感知机使用了softmax计算但是实际上他并没有直接显式的使用softmax来计算每一个输出层神经元输出的值而是在计CrossEntropyLoss中计算了softmax # 构建模型 net nn.Sequential(nn.Flatten(), # 该层的作用是将图片展开成一个一维的向量nn.Linear(784, 256),nn.ReLU(),nn.Linear(256, 10))def init_weights(m):if type(m) nn.Linear:nn.init.normal_(m.weight, std0.01)net.apply(init_weights); # 初始化参数# 设定一些超参数 batch_size, lr, num_epochs 256, 0.1, 10 loss nn.CrossEntropyLoss(reductionnone) # 表示直接返回n分样本的loss trainer torch.optim.SGD(net.parameters(), lrlr) # 对参数使用SGD来优化# 加载数据以及训练 train_iter, test_iter d2l.load_data_fashion_mnist(batch_size) d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)# 这是那个训练函数以免不知道内部是怎么用的 def train_ch3(net, train_iter, test_iter, loss, num_epochs, updater): #save训练模型定义见第3章animator Animator(xlabelepoch, xlim[1, num_epochs], ylim[0.3, 0.9],legend[train loss, train acc, test acc])for epoch in range(num_epochs):train_metrics train_epoch_ch3(net, train_iter, loss, updater)test_acc evaluate_accuracy(net, test_iter)animator.add(epoch 1, train_metrics (test_acc,))train_loss, train_acc train_metricsassert train_loss 0.5, train_lossassert train_acc 1 and train_acc 0.7, train_accassert test_acc 1 and test_acc 0.7, test_accdef train_epoch_ch3(net, train_iter, loss, updater): #save训练模型一个迭代周期定义见第3章# 将模型设置为训练模式if isinstance(net, torch.nn.Module):net.train()# 训练损失总和、训练准确度总和、样本数metric Accumulator(3)for X, y in train_iter:# 计算梯度并更新参数y_hat net(X)l loss(y_hat, y)if isinstance(updater, torch.optim.Optimizer):# 使用PyTorch内置的优化器和损失函数updater.zero_grad()l.mean().backward()updater.step()else:# 使用定制的优化器和损失函数l.sum().backward()updater(X.shape[0])metric.add(float(l.sum()), accuracy(y_hat, y), y.numel())# 返回训练损失和训练精度return metric[0] / metric[2], metric[1] / metric[2]# metric的第一个元素是所有小批量损失函数值的总和。最后我们将它除以样本数metric[2]来得到训练集上的平均损失。因此返回的metric[0] / metric[2]是训练损失。
http://www.dnsts.com.cn/news/54434.html

相关文章:

  • 网站建设培训教程网络游戏投诉平台
  • wordpress主机免费外贸网站优化价格
  • 设计类网站推荐及介绍海外云服务器推荐
  • 培训网站有哪些tomcat 网站开发
  • google 空间 网站环保网站建设说明书
  • 静态网站建设规划东莞做网站有哪些
  • 网站用心WordPress同步某个表
  • 毕设网站php自己做网站
  • 网站飘落怎么做做市场调研的网站
  • 企业网站建设联系方式seo优化或网站编辑
  • 网站正在建设中界面设计网站开发技术文档范例
  • 对海尔网站建设水平的评价昆明网络推广哪里有
  • 唐山网站建设拓网店美工素材
  • 哈尔滨企业自助建站系统做玩网站怎么上传图片
  • 网站成立时间网站策划书的编写
  • 龙游手机网站制作做一些好玩的个人网站
  • 网站软件定制开发制作潍坊做公司网站
  • 做网站哪些软件比较好兰州网站设计教程
  • 网站内容做淘宝店铺链接影响排名吗镇江地区做网站的公司
  • H5网站开发工程师科技公司网站建设
  • 重庆店铺整站优化广告软文200字
  • 各类东莞微信网站建设行业网站建设的开发方案
  • 天津网站设计诺亚科技不忘初心 继续前进网站怎么做
  • 贫困户房屋建设补助在哪个网站公布wordpress显示在线人数
  • 网站建设的类型创业服务网站建设方案项目书
  • 学校网站建设调查表企业网站推广的策略
  • 免费 建站苏宁易购网站建设建议
  • 聊天网站备案wordpress 首页 动
  • dede门户网站模版logo字体在线设计生成器
  • 没有服务器怎样做网站如何做中英切换的网站