当前位置: 首页 > news >正文

新闻类网站的设计wordpress智能机器人

新闻类网站的设计,wordpress智能机器人,做网站开发的有外快嘛,icp备案网站更名第一章#xff1a;计算机视觉中图像的基础认知 第二章#xff1a;计算机视觉#xff1a;卷积神经网络(CNN)基本概念(一) 第三章#xff1a;计算机视觉#xff1a;卷积神经网络(CNN)基本概念(二) 第四章#xff1a;搭建一个经典的LeNet5神经网络(附代码) 第五章#xff1…第一章计算机视觉中图像的基础认知 第二章计算机视觉卷积神经网络(CNN)基本概念(一) 第三章计算机视觉卷积神经网络(CNN)基本概念(二) 第四章搭建一个经典的LeNet5神经网络(附代码) 第五章计算机视觉神经网络实战之手势识别(附代码) 接上一篇《计算机视觉卷积神经网络(CNN)基本概念(一)》 二、图像特征 三、什么是卷积神经网络 四、什么是灰度图像、灰度值 灰度图像是只包含亮度信息的图像没有颜色信息。灰度值Gray Value是指图像中每个像素点的亮度值用于表示该像素的明暗程度。在灰度图像中每个像素的灰度值通常是一个介于 0 和 255 之间的整数其中 0 表示黑色最暗255 表示白色最亮中间值 表示不同程度的灰色 灰度值的计算 对于彩色图像通常表示为 RGB 格式可以通过将红、绿、蓝三个通道的值转换为单个灰度值来生成灰度图像。常见的灰度值计算公式包括 加权平均法Gray0.299×R0.587×G0.114×B这个公式考虑了人眼对不同颜色的敏感度其中红色的权重最低绿色的权重最高。平均法Gray(RGB) / 3这个公式简单地取三个通道值的平均值。最大值法Graymax(R,G,B)这个公式取三个通道值中的最大值作为灰度值。 五、特征抽取的具体过程 卷积操作 定义输入图像与卷积核进行卷积运算生成特征图。示例一个 3x3 的卷积核在 64x64 的图像上滑动计算每个位置的加权和生成一个新的 62x62 的特征图。公式高度 H (图片高度 - 卷积核的高度 2 * 填充圈数) / 卷积核移动步长 1 激活函数 定义通过激活函数如 ReLU引入非线性使网络能够学习更复杂的模式。示例ReLU 激活函数将负值变为 0正值保持不变。 池化操作 定义通过池化操作如最大池化减少特征图的尺寸保留最重要的信息。示例2x2 的最大池化操作将 62x62 的特征图降采样为 31x31 的特征图。 多层卷积和池化 定义通过多层卷积和池化操作逐步提取更高层次的特征。示例第二个卷积层会生成 64 个新的特征图每个特征图捕捉了更复杂的局部特征。 展平 定义最终将多维的特征图展平成一维向量输入到全连接层进行分类。假设经过卷积和池化操作后得到的特征图的尺寸为 H×W×C其中 H 是高度W 是宽度C 是通道数。展平操作将特征图展平成一个一维向量尺寸为 H×W×C。为什么要展平也就是为什么要改变形状 - 展平不会改变像素值 - 展平不会改变数据本身的信息 - 展平为了对口型 - 展平为了科学计算 - 展平为了矩阵相乘示例假设经过卷积和池化操作后得到的特征图的尺寸为 31x31x64展平成 61184 维的向量。 全连接 全连接层的定义 在全连接层中每个神经元都接收前一层所有神经元的输出并通过加权求和和激活函数来计算自己的输出。 全连接层的结构 全连接层的作用 特征整合 全连接层可以整合前一层的特征将局部特征组合成全局特征。这对于分类任务尤为重要因为它需要综合考虑输入数据的所有信息来做出最终的决策。 卷积层和池化层提取的是图像的局部特征而全连接层可以将这些局部特征整合成全局特征。这对于分类任务非常重要因为最终的分类决策需要综合考虑图像的所有信息。分类和回归 全连接层通常用于神经网络的最后几层用于输出最终的分类结果或回归值。例如在图像分类任务中全连接层可以将卷积层提取的特征图展平成一维向量然后通过多层全连接层进行分类。 全连接层的输出层通常用于分类任务将前一层的特征映射到类别标签。在手写数字识别任务中全连接层的输出层将特征映射到 10 个类别0 到 9。非线性变换 全连接层通过激活函数引入非线性使神经网络能够学习更复杂的模式和关系。常见的激活函数包括 ReLU、Sigmoid、Tanh 等。参数学习 全连接层的权重和偏置是通过反向传播算法进行学习的。在训练过程中损失函数的梯度会通过全连接层传递更新权重和偏置从而使模型逐渐优化。 六、CNN的简单案例 这段代码实现一个简单的神经网络模型用于拟合正弦函数 sin(x) 有4 层全连接层CNN学习非线性关系。我们可以用一个简单的神经网络来学习这个关系。假设神经网络的结构如下 输入层1 个节点 隐藏层3个隐藏层第一个隐藏层50个节点第二个隐藏层80 个节点第三个隐藏层50 个节点使用 ReLU 激活函数 输出层1 个节点使用线性激活函数 import torch import torch.nn as nn import torch.optim as optim import numpy as np import matplotlib.pyplot as plt# 数据准备 # 使用 numpy 库生成从 −2π 到 2π 的等间距数字序列 x共有1000个点。 x np.linspace(-2 * np.pi, 2 * np.pi, 1000) # 计算每个 x 值对应的 sin(x) 值并存储在 y 中。 y np.sin(x) # 然后将这些数据转换为 PyTorch 张量并调整形状以适应后续的神经网络输入要求 x_tensor torch.tensor(x, dtypetorch.float32).view(-1, 1) y_tensor torch.tensor(y, dtypetorch.float32).view(-1, 1)# 定义神经网络模型 # 定义了一个名为 SimpleNN 的类继承自 torch.nn.Module它是一个简单的全连接神经网络模型包含4层线性变换全连接层每层之间使用ReLU激活函数。 class SimpleNN(nn.Module):def __init__(self):super(SimpleNN, self).__init__()self.fc1 nn.Linear(1, 50)self.fc2 nn.Linear(50, 80)self.fc3 nn.Linear(80, 50)self.fc4 nn.Linear(50, 1)self.relu nn.ReLU()def forward(self, x):x self.relu(self.fc1(x))x self.relu(self.fc2(x))x self.relu(self.fc3(x))x self.fc4(x)return x# 训练模型 # 初始化一个 SimpleNN 模型实例、均方误差(MSE)损失函数以及Adam优化器。 model SimpleNN() criterion nn.MSELoss() optimizer optim.Adam(model.parameters(), lr0.01) # 在每个训练周期中先清除之前的梯度(optimizer.zero_grad()) # 然后通过模型前向传播得到预测输出(outputs)计算损失值(loss) # 执行反向传播更新模型权重(loss.backward() 和 optimizer.step())。 for epoch in range(2000):optimizer.zero_grad()outputs model(x_tensor)loss criterion(outputs, y_tensor)loss.backward()optimizer.step()# 每200个周期打印一次当前的损失值观察训练过程中的收敛情况。if (epoch 1) % 200 0:print(fEpoch [{epoch1}/2000], Loss: {loss.item():.4f})# 测试模型并绘图 # 将模型设置为评估模式(model.eval()) model.eval() with torch.no_grad():# 在不启用自动求导的情况下(torch.no_grad())用训练好的模型对输入数据 x_tensor 进行预测。predictions model(x_tensor)# 使用 matplotlib 绘制原始的正弦曲线和模型的预测曲线比较两者的拟合效果。这有助于直观地了解模型的拟合程度。 plt.scatter(x, y, labelTrue Data) plt.plot(x, predictions.numpy(), colorred, labelPredictions) plt.legend() plt.show()输出结果从拟合曲线上看CNN 学习得很好在这个例子中神经网络通过隐藏层的 ReLU 激活函数学会了输入 x 和输出 ysin(x) 之间的非线性关系。通过训练模型能够很好地拟合这个非线性函数。 Epoch [200/2000], Loss: 0.0002 Epoch [400/2000], Loss: 0.0005 Epoch [600/2000], Loss: 0.0000 Epoch [800/2000], Loss: 0.0003 Epoch [1000/2000], Loss: 0.0000 Epoch [1200/2000], Loss: 0.0003 Epoch [1400/2000], Loss: 0.0006 Epoch [1600/2000], Loss: 0.0007 Epoch [1800/2000], Loss: 0.0002 Epoch [2000/2000], Loss: 0.0002现在把 上面 4 层全链接改层 2 层 神经网络的结构如下 输入层1 个节点 隐藏层1个隐藏层50 个节点使用 ReLU 激活函数 输出层1 个节点使用线性激活函数 看看是什么效果 import torch import torch.nn as nn import torch.optim as optim import numpy as np import matplotlib.pyplot as plt# 数据准备 x np.linspace(-2 * np.pi, 2 * np.pi, 1000) y np.sin(x) x_tensor torch.tensor(x, dtypetorch.float32).view(-1, 1) y_tensor torch.tensor(y, dtypetorch.float32).view(-1, 1)# 定义神经网络模型 class SimpleNN(nn.Module):def __init__(self):super(SimpleNN, self).__init__()self.fc1 nn.Linear(1, 50)self.fc4 nn.Linear(50, 1)self.relu nn.ReLU()def forward(self, x):x self.relu(self.fc1(x))x self.fc4(x)return x# 训练模型 model SimpleNN() criterion nn.MSELoss() optimizer optim.Adam(model.parameters(), lr0.01)for epoch in range(2000):optimizer.zero_grad()outputs model(x_tensor)loss criterion(outputs, y_tensor)loss.backward()optimizer.step()if (epoch 1) % 200 0:print(fEpoch [{epoch1}/2000], Loss: {loss.item():.4f})# 测试模型并绘图 model.eval() with torch.no_grad():predictions model(x_tensor)plt.scatter(x, y, labelTrue Data) plt.plot(x, predictions.numpy(), colorred, labelPredictions) plt.legend() plt.show()输出结果很明显只有 2 层的情况下CNN 只学习到x和 y 的一部分非线性关系。 Epoch [200/2000], Loss: 0.1304 Epoch [400/2000], Loss: 0.0929 Epoch [600/2000], Loss: 0.0745 Epoch [800/2000], Loss: 0.0720 Epoch [1000/2000], Loss: 0.0718 Epoch [1200/2000], Loss: 0.0713 Epoch [1400/2000], Loss: 0.0708 Epoch [1600/2000], Loss: 0.0707 Epoch [1800/2000], Loss: 0.0706 Epoch [2000/2000], Loss: 0.0706浅层网络2层损失0.0706 → 拟合不足 深层网络4层损失0.0002 → 近乎完美拟合 为什么CNN需要多层卷积 浅层学习局部特征边缘、纹理 深层学习全局语义物体部件、整体结构
http://www.dnsts.com.cn/news/181271.html

相关文章:

  • 建设银行内部审批哪些网站淄博网站设计
  • 网站建设服务谁便宜南通关键词优化平台
  • wordpress建设下载网站ps网站参考线怎么做
  • 网页设计素材网站知乎济南网站建设报价
  • 做机械一般做那个外贸网站外贸电子商务网站
  • 宝山区建设用地事务所网站没有网站可以做cpc吗
  • php 资讯网站网站推广的优势
  • 小程序网站备案wordpress移动端显示图片
  • 学网站开发有用么地方社区网站 备案
  • 服务器做jsp网站教程视频群晖可以做网站吗
  • 网站需要维护吗ssl外贸网站
  • 建设主管部门网站网站技能培训班有哪些
  • 成都网站优化步骤网站建设公司推荐 金石下拉
  • 北京网站建设华网天下定制新网站建设风格
  • 网站和软件的区别广州网站建设智能 乐云践新
  • 网站制作设计教程知名网站建设公司 北京
  • 外包建网站多少钱asp+php+mysql+aspx环境搭建与6种网站安装2
  • 陵水网站建设报价织梦末班和dw建设网站哪个方便优化
  • 如何做好网站开发项目需求分析做测算的网站
  • 上海网站建设caiyiduo网站设计与实现
  • 阿里云的国际网站建设一起做网店网站
  • 网站的优势是什么意思网站模板修改器
  • 网站 成本wordpress iot插件
  • 自建站shopify大朗网站建设
  • 威海网站建设联系方式学校网站建设评分标准
  • 网站建设的价值是什么意思金融网站建设公司
  • 建设网站外包如何打通微信公众号与wordpress
  • 免费咨询问题的网站可以做链接的网站
  • 湘潭做网站找磐石网络一流宜兴市网站建设
  • 专业做蛋糕视频网站wordpress插件 采集