做箱包哪个网站好,昆明经济技术开发区官方门户网站,网页界面设计罗军,wap网站分享代码人工神经元模型 生物学上神经元通常由细胞体#xff0c;细胞核#xff0c;树突和轴突构成。
树突用来接收其他神经元传导过来的信号#xff0c;一个神经元有多个树突#xff1b;
细胞核是神经元中的核心模块#xff0c;用来处理所有的传入信号#xff1b;
轴突是输出信…人工神经元模型 生物学上神经元通常由细胞体细胞核树突和轴突构成。
树突用来接收其他神经元传导过来的信号一个神经元有多个树突
细胞核是神经元中的核心模块用来处理所有的传入信号
轴突是输出信号的单元它有很多个轴突末梢可以给其它神经元的树突传递信号。 人工神经元的模型可以由下图来表述 图中X1~Xn是从其它神经元传入的输入信号Wi1~Win分别是传入信号的权重θ表示一个阈值或称为偏置bias偏置的设置是为了正确分类样本是模型中一个重要的参数。神经元综合的输入信号和偏置符号为-1~1相加之后产生当前神经元最终的处理信号net该信号称为净激活或净激励net activation激活信号作为上图中圆圈的右半部分f*函数的输入即f(net) f称为激活函数或激励函数Activation Function激活函数的主要作用是加入非线性因素解决线性模型的表达、分类能力不足的问题。上图中y是当前神经元的输出。 常见的激活函数 1. Sigmoid Sigmoid函数的特点是会把输出限定在0~1之间如果是非常大的负数输出就是0如果是非常大的正数输出就是1这样使得数据在传递过程中不容易发散。
Sigmod有两个主要缺点一是Sigmoid容易过饱和丢失梯度。从Sigmoid的示意图上可以看到神经元的活跃度在0和1处饱和梯度接近于0这样在反向传播时很容易出现梯度消失的情况导致训练无法完整二是Sigmoid的输出均值不是0基于这两个缺点SIgmoid使用越来越少了。 2. tanh tanh是Sigmoid函数的变形tanh的均值是0在实际应用中有比Sigmoid更好的效果。 3. ReLU ReLU是近来比较流行的激活函数当输入信号小于0时输出为0当输入信号大于0时输出等于输入。 ReLU的优点
1. ReLU是部分线性的并且不会出现过饱和的现象使用ReLU得到的随机梯度下降法SGD的收敛速度比Sigmodi和tanh都快。
2. ReLU只需要一个阈值就可以得到激活值不需要像Sigmoid一样需要复杂的指数运算。
ReLU的缺点
在训练的过程中ReLU神经元比价脆弱容易失去作用。例如当ReLU神经元接收到一个非常大的的梯度数据流之后这个神经元有可能再也不会对任何输入的数据有反映了所以在训练的时候要设置一个较小的合适的学习率参数。 4. Leaky-ReLU 相比ReLULeaky-ReLU在输入为负数时引入了一个很小的常数如0.01这个小的常数修正了数据分布保留了一些负轴的值在Leaky-ReLU中这个常数通常需要通过先验知识手动赋值。 5. Maxout Maxout是在2013年才提出的是一种激发函数形式一般情况下如果采用Sigmoid函数的话在前向传播过程中隐含层节点的输出表达式为 其中W一般是二维的这里表示取出的是第i列下标i前的省略号表示对应第i列中的所有行。而在Maxout激发函数中在每一个隐含层和输入层之间又隐式的添加了一个“隐含层”这个“隐隐含层”的激活函数是按常规的Sigmoid函数来计算的而Maxout神经元的激活函数是取得所有这些“隐隐含层”中的最大值如上图所示。
Maxout的激活函数表示为 f(x)max(wT1xb1,wT2x b2) 可以看到ReLU 和 Leaky ReLU 都是它的一个变形比如 w1,b10 的时候就是 ReLU。
Maxout的拟合能力是非常强的它可以拟合任意的的凸函数优点是计算简单不会过饱和同时又没有ReLU的缺点容易死掉但Maxout的缺点是过程参数相当于多了一倍。 其他一些激活函数列表 3. 神经网络模型分类 神经网络由大量的神经元互相连接而构成根据神经元的链接方式神经网络可以分为3大类。 (1) 前馈神经网络 ( Feedforward Neural Networks ) 前馈网络也称前向网络。这种网络只在训练过程会有反馈信号而在分类过程中数据只能向前传送直到到达输出层层间没有向后的反馈信号因此被称为前馈网络。前馈网络一般不考虑输出与输入在时间上的滞后效应只表达输出与输入的映射关系
感知机( perceptron)与BP神经网络就属于前馈网络。下图是一个3层的前馈神经网络其中第一层是输入单元第二层称为隐含层第三层称为输出层输入单元不是神经元因此图中有2层神经元。 2反馈神经网络 ( Feedback Neural Networks ) 反馈型神经网络是一种从输出到输入具有反馈连接的神经网络其结构比前馈网络要复杂得多。反馈神经网络的“反馈”体现在当前的分类结果会作为一个输入影响到下一次的分类结果即当前的分类结果是受到先前所有的分类结果的影响的。
典型的反馈型神经网络有Elman网络和Hopfield网络。 3自组织网络 ( SOM ,Self-Organizing Neural Networks ) 自组织神经网络是一种无导师学习网络。它通过自动寻找样本中的内在规律和本质属性自组织、自适应地改变网络参数与结构。