当前位置: 首页 > news >正文

王色网站电脑当服务器做网站

王色网站,电脑当服务器做网站,wordpress签到系统,建网站的步骤及方法在使用torch.nn.functional模块时#xff0c;需要导入包#xff1a; from torch.nn import functional 以下是常见激活函数的介绍以及对应的代码示例#xff1a; tanh (双曲正切) 输出范围#xff1a;(-1, 1) 特点#xff1a;中心对称#xff0c;适合处理归一化后的数据…        在使用torch.nn.functional模块时需要导入包 from torch.nn import functional 以下是常见激活函数的介绍以及对应的代码示例 tanh (双曲正切) 输出范围(-1, 1) 特点中心对称适合处理归一化后的数据。 公式 import torch x torch.tensor([-2.0, -1.0, 0.0, 1.0, 2.0]) y torch.nn.funcationl.tanh(x) print(y)  # 输出tensor([-0.9640, -0.7616,  0.0000,  0.7616,  0.9640]) sigmoid (S形函数) 输出范围(0, 1) 特点用于将输入映射到概率值但可能会导致梯度消失问题。 公式 y torch.nn.funcational.sigmoid(x) print(y)  # 输出tensor([0.1192, 0.2689, 0.5000, 0.7311, 0.8808]) SiLU (Sigmoid Linear Unit也称Swish)  输出范围(0, x) 特点结合了线性和非线性特性效果较好。 公式silu(x) x * sigmoid(x) y torch.nn.funcationl.silu(x) print(y)  # 输出tensor([-0.2384, -0.2689,  0.0000,  0.7311,  1.7616]) GELU (Gaussian Error Linear Unit) 输出范围接近ReLU但更加平滑。 特点常用于Transformer模型。 公式近似为gelu(x) ≈ x * sigmoid(1.702 * x) y torch.nn.functional.gelu(x) print(y)  # 输出tensor([-0.0454, -0.1588,  0.0000,  0.8413,  1.9546]) ReLU (Rectified Linear Unit) 输出范围[0, ∞) 特点简单高效是最常用的激活函数之一。 公式relu(x) max(0, x) y torch.nn.funcationl.relu(x) print(y)  # 输出tensor([0., 0., 0., 1., 2.]) ReLU_ (In-place ReLU) 输出范围[0, ∞) 特点修改原张量而不是生成新的张量节省内存。 x.relu_()  # 注意会改变x本身 print(x)  # x的值被修改为tensor([0., 0., 0., 1., 2.]) Leaky ReLU 输出范围(-∞, ∞) 特点允许负值有较小的输出避免死神经元问题。 公式leaky_relu(x) x if x 0 else alpha * x x torch.tensor([-2.0, -1.0, 0.0, 1.0, 2.0]) y torch.nn.functional.leaky_relu(x, negative_slope0.01) print(y)  # 输出tensor([-0.0200, -0.0100,  0.0000,  1.0000,  2.0000]) Leaky ReLU_ (In-place Leaky ReLU) 特点和ReLU_一样会修改原张量。 x.leaky_relu_(negative_slope0.01) print(x)  # x的值被修改 Softmax 输出范围(0, 1)且所有输出的和为1。 特点常用于多分类任务的最后一层。 公式 x torch.tensor([1.0, 2.0, 3.0]) y torch.nn.functional.softmax(x, dim0) print(y)  # 输出tensor([0.0900, 0.2447, 0.6652]) Threshold 输出范围手动设置的范围。 特点小于阈值的数被置为设定值大于等于阈值的数保持不变。 x torch.tensor([-1.0, 0.0, 1.0, 2.0]) y torch.nn.functional.threshold(x, threshold0.5, value0.0) print(y)  # 输出tensor([0., 0., 0., 2.]) Normalize 功能将张量的值标准化到指定范围。 公式normalize(x) x / max(||x||, eps) x torch.tensor([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]]) y torch.nn.functional.normalize(x, p2, dim1) print(y)  # 输出标准化到单位向量
http://www.dnsts.com.cn/news/16268.html

相关文章:

  • 做网站 信息集成过程的顺序WordPress cdn缓存哪些
  • 网站平台建设框架电脑网站有哪些
  • 网站收录和反链都正常关键词却没有排名的原因南京网站建设流程
  • 潍坊网站建设报价免费网络节点
  • 怎么在免费空间里面做网站wordpress 关闭rss
  • 北京网站手机站建设公司电话wordpress的文章多重筛选
  • 店铺设计素材百度小程序排名优化
  • 南京市公共建设管理中心网站中国建筑网官网app
  • 空壳网站清理福州网站快速排名
  • 怎么样推广自己的网站wordpress字体插件
  • 分类信息网站建设专职石碣镇网站仿做
  • 东莞网站建设的方案为什么php导入数据库会乱码
  • 做网站服务器用谁的鹤壁建设网站推广公司电话
  • 潍坊网站制作熊掌号互联网有多少网站
  • 网站右侧返回顶部wordpress 搜索 分类
  • 绿地建设集团网站福州志愿者官方网站怎么做
  • 加强网站建设的建议好的高端企业网站建设公司
  • 找外包公司做网站网站集群系统建设
  • 网站有利于seo的细节越南的网站建设
  • 单位网站建设需要哪些技术百度青岛代理公司
  • php企业网站通讯录管理系统组织建设六个方面内容
  • 沈阳网站网页珠海建设网站官网
  • 微信h5商城网站金诚信矿业建设集团有限公司网站
  • 昆明网站seo服务网站开发 周期
  • mc做弊端网站抖音代运营协议书范本
  • 网页制作与网站建设技术详解子网站建设工作室
  • 公司的网站设计方案基层网站建设作用
  • 邯郸做网站的公司哪家好网站注册空间
  • 如何在阿里云做网站广告设计公司宣传册
  • mvc网站开发之美建筑兼职网