网站建设完整版,深圳企业主页制作,我为群众办实事,运营是做什么的工作目录
一、经典神经网络出现的时间线编辑
二、LeNet
三、AlexNet
四、VGGNet
五、InceptionNet
六、ResNet
总结#xff1a; 一、经典神经网络出现的时间线
二、LeNet
背景#xff1a;LeNet由Yann LeCun于1998年提出#xff0c;卷积网络开篇之作。 解释#xff1…目录
一、经典神经网络出现的时间线编辑
二、LeNet
三、AlexNet
四、VGGNet
五、InceptionNet
六、ResNet
总结 一、经典神经网络出现的时间线
二、LeNet
背景LeNet由Yann LeCun于1998年提出卷积网络开篇之作。 解释有一个6*5*5和16*5*5的卷积核分别执行了CBAPD ,可以看出比如B归一化,D(省略)都没有不是因为没有设置而是当时还没有发现
三、AlexNet
背景AlexNet网络诞生于2012年当年ImageNet竞赛的冠军Top5错误率为16.4% 解释有5个的卷积核分别执行了CBAPD ,可以看出比如B没有归一化,但是相对于LeNet多了D省略
四、VGGNet
背景VGGNet诞生于2014年当年ImageNet竞赛的亚军Top5错误率减小到7.3%
好处 解释有10的卷积核分别执行了CBAPD ,可以看出比如B有归一化和了D有省略都有了
五、InceptionNet
背景InceptionNet诞生于2014年当年ImageNet竞赛冠军Top5错误率为6.67% 解释用到了不同的卷积核不再保留单一的样子卷积核与上一个卷积核有一定的联系一个卷积核的输出作为另一个卷积核的输入
有7个不同的卷积核InceptionNet与GoogLeNet差不多 六、ResNet
背景ResNet诞生于2015年当年ImageNet竞赛冠军Top5错误率为3.57% 解释发现前几个Net网络准确率提高了都伴随着层的提高就测试发现不是层高就是好的会出现过拟合或者lose失效和梯度消失的情况
观念通过层与层之间的联系是的曾与曾之间保持联系 解释曾与曾是直接相加的关系没有输入输出的关系但是相加有前提那就是必须格式一样如果格式不一样那么就要进行转变
总结 本文主要借鉴mooc曹建老师的《人工智能实践Tensorflow笔记》每一个网络都是在增加层或者改变卷积核的大小损失函数优化器等等目的都是为了反向传播的时候和特征提取的时候更加精准有效ResNet还需还有ResNet-50等等