番禺建设网站哪个好,京东网页版,婚礼工作室网站模板,wordpress 页面宽度深度学习概述
深度学习的特点
优点
性能更好 不需要特征工程 在大数据样本下有更好的性能 能解决某些传统机器学习无法解决的问题
缺点
小数据样本下性能不如机器学习 模型复杂 可解释性弱
深度学习与传统机器学习相同点 深度学习、机器学习是同一问题不同的解决方法 …
深度学习概述
深度学习的特点
优点
性能更好 不需要特征工程 在大数据样本下有更好的性能 能解决某些传统机器学习无法解决的问题
缺点
小数据样本下性能不如机器学习 模型复杂 可解释性弱
深度学习与传统机器学习相同点 深度学习、机器学习是同一问题不同的解决方法 目的相同都是利用机器自我学习能力解决软件系统的难题 基本问题相同回归问题、分类问题、聚类问题 基本流程相同数据准备 → 模型选择 → 模型构建/训练 → 评估优化 → 预测 问题领域相同监督学习、非监督学习、半监督学习 应用领域相同推荐、计算机视觉、自然语言处理、语音处理、强化学习 评价标准相同
回归问题均方误差R2值 分类问题交叉熵查准率、召回率、F1综合系数 模型泛化能力过拟合、欠拟合
感知机
生物神经元 感知机Perceptron又称人工神经元Artificial neuron它是生物神经元在计算机中的模拟。下图是一个生物神经元示意图 感知机 感知机Perceptron又称神经元Neuron对生物神经元进行了模仿是神经网络深度学习的起源算法1958年由康奈尔大学心理学教授弗兰克·罗森布拉 特Frank Rosenblatt提出它可以接收多个输入信号产生一个输出信号。 感知机功能
神经元作为回归器 / 分类器 逻辑和线性分类 逻辑或线性分类 感知机局限 感知机的局限在于无法处理“异或”问题非线性问题 多层感知机 1975年感知机的“异或”难题才被理论界彻底解决即通过多个感知机组合来解决该问题这种模型也叫多层感知机Multi-Layer PerceptronMLP。如下图所示神经元节点阈值均设置为0.5 神经网络 感知机由于结构简单完成的功能十分有限。可以将若干个感知机连在一起形成 一个级联网络结构这个结构称为“多层前馈神经网络”Multi-layer Feedforward Neural Networks。所谓“前馈”是指将前一层的输出作为后一 层的输入的逻辑结构。每一层神经元仅与下一层的神经元全连接。但在同一层之内 神经元彼此不连接而且跨层之间的神经元彼此也不相连。 1989年奥地利学者库尔特·霍尼克Kurt Hornik等人发表论文证明对于任意复杂度的连续波莱尔可测函数Borel Measurable Functionf仅仅需要一个隐含层只要这个隐含层包括足够多的神经元前馈神经网络使 用挤压函数Squashing Function作为激活函数就可以以任意精度来近似模拟f。如果想增加f的近似精度单纯依靠增加神经元的数目即可实现。 这个定理也被称为通用近似定理Universal Approximation Theorem该定理表明前馈神经网在理论上可近似解决任何问题。 神经网络要足够深 多层神经网络计算公式 激活函数
定义 在神经网络中将输入信号的总和转换为输出信号的函数被称为激活 函数activation function 为什么使用激活函数 激活函数将多层感知机输出转换为非线性使得神经网络可以任意 逼近任何非线性函数这样神经网络就可以应用到众多的非线性模型中。 如果一个多层网络使用连续函数作为激活函数的多层网络称之 为“神经网络”否则称为“多层感知机”。所以激活函数是区 、别多层感知机和神经网络的依据。 常见激活函数 阶跃函数 – 阶跃函数Step Function是一种特殊的连续时间函数是一个从0跳变到1的 过程函数形式与图像 sigmoid函数 – sigmoid函数也叫Logistic函数用于隐层神经元输出取值范围为(0,1)它可以将一个实 数映射到(0,1)的区间可以用来做二分类表达式σ(x) 1 / (1 e -x ) 优点平滑、易于求导 缺点激活函数计算量大反向传播求误差梯度时求导涉及除法反向传播时很容易就 会出现梯度消失的情况从而无法完成深层网络的训练 右侧是导数x越来越大或者越来越小导数逐渐为0梯度逐步转换为0 tanh双曲正切函数 优点平滑、易于求导输出均值为0收敛速度要比sigmoid快从而可以减少迭代次数 缺点梯度消失 用途常用于NLP中 ReLURectified Linear Units修正线性单元 优点 1更加有效率的梯度下降以及反向传播避免了梯度爆炸和梯度消失问题 2计算过程简单 缺点小于等于0的部分梯度为0 用途常用于图像
一般这里x0的时候都是给一个特别小的值不至于让该神经元消失
Softmax Softmax函数定义如下其中Vi 是分类器前级输出单元的输出。i 表示类别索引总的类别个数为 C。 Si 表示的是当前元素的指数与所有元素指数和的比值。通过 Softmax函数就可以将多分类的输出数值 转化为相对概率而这些值的累和为1常用于神经网络输出层。 表达式 将预测结果转换为相对概率
在分类模型中有几个类别输出层就有几个神经元
分类模型的输出层激活函数一般都是softmax 总结
感知机接收多个输入信号产生一个输出信号无法解决异或问题 多层感知机将多个感知机组合 多层前馈网络若干个感知机组合成若干层的网络上一层输出作为下一层输入 激活函数将计算结果转换为输出的值包括阶跃函数、sigmoid、tanh、ReLU