当前位置: 首页 > news >正文

网站开发 seo十堰网络销售

网站开发 seo,十堰网络销售,网络开发工具有哪些,帮忙制作网页的公司目录 第一门课#xff1a;神经网络和深度学习 (Neural Networks and Deep Learning)第三周#xff1a;浅层神经网络(Shallow neural networks)3.6 激活函数#xff08;Activation functions#xff09;3.7 为什么需要非线性激活函数#xff1f;#xff08;why need a non… 目录 第一门课神经网络和深度学习 (Neural Networks and Deep Learning)第三周浅层神经网络(Shallow neural networks)3.6 激活函数Activation functions3.7 为什么需要非线性激活函数why need a nonlinear activation function?3.8 激活函数的导数Derivatives of activation functions 第一门课神经网络和深度学习 (Neural Networks and Deep Learning) 第三周浅层神经网络(Shallow neural networks) 3.6 激活函数Activation functions 使用一个神经网络时需要决定使用哪种激活函数用隐藏层上哪种用在输出节点上。到目前为止之前的视频只用过 sigmoid 激活函数但是有时其他的激活函数效果会更好。 在神经网路的前向传播中 a [ 1 ] σ ( z [ 1 ] ) a^{[1]} σ(z^{[1]}) a[1]σ(z[1])和 a [ 2 ] σ ( z [ 2 ] ) a^{[2]} σ(z^{[2]}) a[2]σ(z[2])这两步会使用到sigmoid函数。sigmoid 函数在这里被称为激活函数。 公式 3.18 a σ ( z ) 1 1 e − z a σ(z) \frac{1}{1e^{-z}} aσ(z)1e−z1​ 更通常的情况下使用不同的函数 g ( z [ 1 ] ) g(z^{[1]}) g(z[1])g可以是除了 sigmoid 函数意外的非线性函数。tanh 函数或者双曲正切函数是总体上都优于 sigmoid 函数的激活函数。如图a tan(z)的值域是位于1 和-1 之间。 公式 3.19 a t a n h ( z ) e z − e − z e z e − z a tanh(z) \frac{e^z−e^{-z}}{e^ze^{-z}} atanh(z)eze−zez−e−z​ 事实上tanh 函数是 sigmoid 的向下平移和伸缩后的结果。对它进行了变形后穿过了(0,0)点并且值域介于1 和-1 之间。 结果表明如果在隐藏层上使用函数公式 3.20 g ( z [ 1 ] ) t a n h ( z [ 1 ] ) g(z^{[1]}) tanh(z^{[1]}) g(z[1])tanh(z[1]) 效果总是优于 sigmoid 函数。因为函数值域在-1 和1的激活函数其均值是更接近零均值的。在训练一个算法模型时如果使用 tanh 函数代替sigmoid 函数中心化数据使得数据的平均值更接近 0 而不是 0.5. 在讨论优化算法时有一点要说明我基本已经不用 sigmoid 激活函数了tanh 函数在所有场合都优于 sigmoid 函数。但有一个例外在二分类的问题中对于输出层因为的值是 0 或 1所以想让 y ^ \hat{y} y^​的数值介于 0 和 1 之间而不是在-1 和1 之间。所以需要使用 sigmoid 激活函数。 这里的公式 3.21 g ( z [ 2 ] ) σ ( z [ 2 ] ) g(z^{[2]}) σ(z^{[2]}) g(z[2])σ(z[2])在这个例子里看到的是对隐藏层使用 tanh 激活函数输出层使用 sigmoid 函数。 所以在不同的神经网络层中激活函数可以不同。为了表示不同的激活函数在不同的层中使用方括号上标来指出上标为[1]的激活函数可能会跟上标为[2]不同。方括号上标[1]代表隐藏层方括号上标[2]表示输出层。 sigmoid 函数和 tanh 函数两者共同的缺点是在特别大或者特别小的情况下导数的梯度或者函数的斜率会变得特别小最后就会接近于 0导致降低梯度下降的速度。 在机器学习另一个很流行的函数是修正线性单元的函数ReLuReLu 函数图像是如下图。 公式 3.22 (0, ) 所以只要是正值的情况下导数恒等于 1当是负值的时候导数恒等于 0。从实际上来说当使用的导数时0 的导数是没有定义的。但是当编程实现的时候的取值刚好等于 0.00000001这个值相当小所以在实践中不需要担心这个值是等于 0 的时候假设一个导数是 1 或者 0 效果都可以。 这有一些选择激活函数的经验法则如果输出是 0、1 值二分类问题则输出层选择 sigmoid 函数然后其它的所有单元都选择 Relu 函数。 这是很多激活函数的默认选择如果在隐藏层上不确定使用哪个激活函数那么通常会使用 Relu 激活函数。有时也会使用 tanh 激活函数但 Relu 的一个优点是当是负值的时候导数等于 0。 这里也有另一个版本的 Relu 被称为 Leaky Relu。当是负值时这个函数的值不是等于 0而是轻微的倾斜如图。这个函数通常比 Relu 激活函数效果要好尽管在实际中 Leaky ReLu 使用的并不多。 两者的优点是 第一在的区间变动很大的情况下激活函数的导数或者激活函数的斜率都会远大于0在程序实现就是一个 if-else 语句而 sigmoid 函数需要进行浮点四则运算在实践中使用 ReLu 激活函数神经网络通常会比使用 sigmoid 或者 tanh 激活函数学习的更快。 第二sigmoid 和 tanh 函数的导数在正负饱和区的梯度都会接近于 0这会造成梯度弥散而 Relu 和 Leaky ReLu 函数大于 0 部分都为常数不会产生梯度弥散现象。(同时应该注意到的是Relu 进入负半区的时候梯度为 0神经元此时不会训练产生所谓的稀疏性而 Leaky ReLu 不会有这问题) 在 ReLu 的梯度一半都是 0但是有足够的隐藏层使得 z 值大于 0所以对大多数的训练数据来说学习过程仍然可以很快。 快速概括一下不同激活函数的过程和结论 sigmoid 激活函数除了输出层是一个二分类问题基本不会用它。 tanh 激活函数tanh 是非常优秀的几乎适合所有场合。 ReLu 激活函数最常用的默认函数如果不确定用哪个激活函数就使用 ReLu 或者Leaky ReLu。 公式 3.23 (0.01, ) 为什么常数是 0.01当然可以为学习算法选择不同的参数。 在选择自己神经网络的激活函数时有一定的直观感受在深度学习中的经常遇到一个问题在编写神经网络的时候会有很多选择隐藏层单元的个数、激活函数的选择、初始化权值……这些选择想得到一个对比较好的指导原则是挺困难的。 鉴于以上三个原因以及在工业界的见闻提供一种直观的感受哪一种工业界用的多哪一种用的少。但是自己的神经网络的应用以及其特殊性是很难提前知道选择哪些效果更好。所以通常的建议是如果不确定哪一个激活函数效果更好可以把它们都试试然后在验证集或者发展集上进行评价。然后看哪一种表现的更好就去使用它。 为自己的神经网络的应用测试这些不同的选择会在以后检验自己的神经网络或者评估算法的时候看到不同的效果。如果仅仅遵守使用默认的 ReLu 激活函数而不要用其他的激励函数那就可能在近期或者往后每次解决问题的时候都使用相同的办法。 3.7 为什么需要非线性激活函数why need a nonlinear activation function? 为什么神经网络需要非线性激活函数事实证明要让你的神经网络能够计算出有趣的函数你必须使用非线性激活函数证明如下 这是神经网络正向传播的方程现在我们去掉函数g然后令 a [ 1 ] z [ 1 ] a^{[1]} z^{[1]} a[1]z[1]或者我们也可以令g(z) z这个有时被叫做线性激活函数更学术点的名字是恒等激励函数因为它们就是把输入值输出。为了说明问题我们把 a [ 2 ] z [ 2 ] a^{[2]} z^{[2]} a[2]z[2]那么这个模型的输出或仅仅只是输入特征的线性组合。 如果我们改变前面的式子令 (1) a [ 1 ] z [ 1 ] W [ 1 ] x b [ 1 ] a^{[1]} z^{[1]} W^{[1]}x b^{[1]} a[1]z[1]W[1]xb[1] (2) a [ 2 ] z [ 2 ] W [ 2 ] a [ 1 ] b [ 2 ] a^{[2]} z^{[2]} W^{[2]}a^{[1]} b^{[2]} a[2]z[2]W[2]a[1]b[2] 将式子 (1) 代 入 式 子 (2) 中 则 a [ 2 ] z [ 2 ] W [ 2 ] ( W [ 1 ] x b [ 1 ] ) b [ 2 ] a^{[2]} z^{[2]} W^{[2]}(W^{[1]}x b^{[1]}) b^{[2]} a[2]z[2]W[2](W[1]xb[1])b[2] (3) a [ 2 ] z [ 2 ] W [ 2 ] W [ 1 ] x W [ 2 ] b [ 1 ] b [ 2 ] a^{[2]} z^{[2]} W^{[2]}W^{[1]}x W^{[2]}b^{[1]} b^{[2]} a[2]z[2]W[2]W[1]xW[2]b[1]b[2] 简化多项式得 a [ 2 ] z [ 2 ] W ′ x b ′ a^{[2]} z^{[2]} Wx b a[2]z[2]W′xb′ 如果你是用线性激活函数或者叫恒等激励函数那么神经网络只是把输入线性组合再输出。 我们稍后会谈到深度网络有很多层的神经网络很多隐藏层。事实证明如果你使用线性激活函数或者没有使用一个激活函数那么无论你的神经网络有多少层一直在做的只是计算线性函数所以不如直接去掉全部隐藏层。在我们的简明案例中事实证明如果你在隐藏层用线性激活函数在输出层用 sigmoid 函数那么这个模型的复杂度和没有任何隐藏层的标准 Logistic 回归是一样的如果你愿意的话可以证明一下。 在这里线性隐层一点用也没有因为这两个线性函数的组合本身就是线性函数所以除非你引入非线性否则你无法计算更有趣的函数即使你的网络层数再多也不行只有一个地方可以使用线性激活函数------() 就是你在做机器学习中的回归问题。 是一个实数举个例子比如你想预测房地产价格 就不是二分类任务 0 或 1而是一个实数从0 到正无穷。如果 是个实数那么在输出层用线性激活函数也许可行你的输出也是一个实数从负无穷到正无穷。 总而言之不能在隐藏层用线性激活函数可以用 ReLU 或者 tanh 或者 leaky ReLU 或者其他的非线性激活函数唯一可以用线性激活函数的通常就是输出层除了这种情况会在隐层用线性函数的除了一些特殊情况比如与压缩有关的那方面在这里将不深入讨论。在这之外在隐层使用线性激活函数非常少见。因为房价都是非负数所以我们也可以在输出层使用 ReLU 函数这样你的^都大于等于 0。 理解为什么使用非线性激活函数对于神经网络十分关键接下来我们讨论梯度下降并在下一个视频中开始讨论梯度下降的基础——激活函数的导数。 3.8 激活函数的导数Derivatives of activation functions 在神经网络中使用反向传播的时候你真的需要计算激活函数的斜率或者导数。针对以下四种激活求其导数如下 其具体的求导如下 公式 3.25 d d z g ( z ) 1 1 e − z ( 1 − 1 1 e − z ) g ( z ) ( 1 − g ( z ) ) \frac{d}{dz}g(z)\frac{1}{1e^{-z}}(1 −\frac{1}{1e^{-z}}) g(z)(1−g(z)) dzd​g(z)1e−z1​(1−1e−z1​)g(z)(1−g(z)) 注 当z 10 或z −10 d d z g ( z ) \frac{d}{dz}g(z) dzd​g(z) ≈ 0; 当z 0 d d z g ( z ) g ( z ) ( 1 − g ( z ) ) \frac{d}{dz}g(z) g(z)(1 − g(z)) dzd​g(z)g(z)(1−g(z)) 1/4 在神经网络中 a g(z); g(z)′ d d z g ( z ) a ( 1 − a ) \frac{d}{dz}g(z) a(1 − a) dzd​g(z)a(1−a) 其具体的求导如下 公式 3.26 g ( z ) t a n h ( z ) e z − e − z e z e − z g(z) tanh(z) \frac{e^{z}-e^{-z}}{e^{z}e^{-z}} g(z)tanh(z)eze−zez−e−z​ 公式 3.27 d d z g ( z ) 1 − ( t a n h ( z ) ) 2 \frac{d}{dz}g(z) 1 -(tanh(z))^2 dzd​g(z)1−(tanh(z))2 注 当 10 或 −10 d d z g ( z ) \frac{d}{dz}g(z) dzd​g(z) ≈ 0; 当 0 d d z g ( z ) \frac{d}{dz}g(z) dzd​g(z) 1 − (0) 1; 注通常在 0 的时候给定其导数 1,0当然0 的情况很少 注通常在 0的时候给定其导数 1,0.01当然 0的情况很少
http://www.dnsts.com.cn/news/62254.html

相关文章:

  • 学习网站推荐做网站的前期准备
  • 代码网站怎么制作域名到期了网站会打不开吗
  • 做搜狗网站关键词排名形象类网站
  • 哪个网站做网站好凡客建网站
  • 安徽网站电商网站设计实训总结报告
  • 网页设计个人介绍天津seo诊断
  • 做窗帘网站企业营销策划报告
  • 汕头网站开发做个小程序
  • 冀州做网站的公司做网站销售工资怎么样
  • 做策划需要进的网站网站海外推广谷歌seo方案
  • 电脑网站支付seo顾问推推蛙
  • 瑞安网站建设机房建设网站
  • 郑州网站建设乙汉狮网络建网站公司那个比较好
  • 知名企业网站小学生的做试卷儿的网站 你这
  • seo网站诊断流程工商网站官网查询
  • 外贸网站建设 杭州百度seo规则
  • 网站制作新报价IT科技资讯新闻类织梦网站模板
  • 360建站的应用场景网站关键词百度没有收录
  • 河南网站备案中心网站 多服务器
  • 快速网站开发课程天门市网站建设
  • 网站开发 保修期做网站的主要任务
  • 普通企业网站费用网络优化是做啥的
  • 网站要怎么样做排名才上得去店名设计logo
  • 网站流量不正常深圳罗湖商城网站建设
  • 临沂科技网站建设网站建设与管理专业好找工作吗
  • 有谁知道知乎网站是谁做的做公众号好还是网站好
  • 宜兴建设局质监网站制作古城西安网页
  • 怎样设置默认网站建一个自己的网站价格
  • 网站设计素材巨耀网站建设公司
  • 企业网站推广的方法包括上海头条新闻最新消息