当前位置: 首页 > news >正文

外汇跟单网站建设电子商务基础平台有哪些

外汇跟单网站建设,电子商务基础平台有哪些,青岛网站制作定制,苏州新闻今天最新消息新闻事件【导师不教#xff1f;我来教#xff01;】同济计算机博士半小时就教会了我五大深度神经网络#xff0c;CNN/RNN/GAN/transformer/LSTM一次学会#xff0c;简直不要太强#xff01;_哔哩哔哩_bilibili了解的五大神经网络#xff0c;整理笔记如下#xff1a; 视频是唐宇…【导师不教我来教】同济计算机博士半小时就教会了我五大深度神经网络CNN/RNN/GAN/transformer/LSTM一次学会简直不要太强_哔哩哔哩_bilibili了解的五大神经网络整理笔记如下 视频是唐宇迪博士讲解的但是这个up主发的有一种东拼西凑的感觉给人感觉不是很完整 一、卷积神经网络优势计算机视觉 1、卷积的作用特征提取本质就是提取卷积核那个大小区域中的特征值 2、利用不同的卷积核对同一数据进行提取可以得到多维度的特征图丰富特征内容 3、边缘填充padding可以解决边缘特征在提取时权重不高的问题 4、卷积的结果公式 其中size是下一次特征图长或宽size是这一次特征图的长或宽kernelsize是卷积核大小padding留白行数step为卷积步长 5、为了减少计算量在一轮卷积中卷积核的参数是共享的不会随着位置改变而改变 6、池化层的作用特征降维 7、通常说几层神经网络的时候只有带权值与参数的层会被计入如卷积层与线性层如池化层这种不带权值与参数的层不会被计入 8、经典的CNN网络模型AlexNet、VGG、ResNet利用残差相加提供了增加网络深度的方法 9、感受野特征图中特征所代表的原图中区域的大小 10、具有相同的感受野的多个小卷积核组合与一个大卷积核相比所需要的参数少特征提取更细致加入的非线性变换也更多所以现在基本上都使用小卷积核来进行卷积 二、循环神经网络RNN)(优势时间序列问题处理多用于NLP 1、输入数据为特征向量并且按照时间顺序排列 2、RNN网络缺点是会记忆之前所有的数据LSTM模型通过加入遗忘门解决了这个问题 3、示例Word2Vec 文本向量化创建一个多维的文本空间一个向量就代表一个词词义越相近的词在文本空间中的距离也就越近 4、Word2Vec模型中反向传播的过程中不仅会更新神经网络还会更新输入的词向量 5、RNN经典模型CBOWskipgram 6、由于数据量大模型构建方案一般不使用输入一词输出预测词的模式而是使用输入前一词A和后一词B输出B在A后的概率但是由于数据集均为通顺语句采集而来概率均为1所以需要人为在数据集中加入错误语句并且标记概率为0被称为负采样 三、对抗生成网络GNN 1、对抗生成网络分为生成器、判别器、损失函数其中生成器负责利用噪声生成数据产生以假乱真的效果判别器需要火眼金睛分辨真实数据与虚假数据损失函数负责让生成器更加真实让判别器更加强大。 四、Teansformer功能强大但是需要很大数据来训练 1、Transformer由编码器Encoder和解码器Decoder组成 2、Transfromer的本质就是重组输入的向量以得到更加完美的特征向量 3、Transfromer的工作流程 3.1、获取输入句子的每一个单词表示向量X由单词特征加上位置特征得到 3.2、将得到的单词表示向量矩阵X传入Encoder中输出编码矩阵CC与输入的单词矩阵X维度完全一致 3.3、将矩阵C传递到Decoder中Decoder依次根据当前翻译过的单词预测下一个单词。 4、Transformer的内部结构如下图所示 5、在训练时Decoder中的第一个Multi-Head Attention采用mask模式即在预测到第i1个单词时候需要掩盖i1之后的单词。 6、单词的特征获取方法有很多种比如Word2VecGlov算法预训练或者也可以使用Transformer训练得到位置特征则可以通过公式得到公式如下 7、Add是残差链接操作Norm是LayerNormalization归一化操作Feed Forward层是两个全连接层第一个全连接层使用ReLU进行非线性激活第二个不激活 8、Transformer内部结构存在多个Multi-Head Attention结构这个结构是由多个Attention组成的多头注意力机制Attention 注意力机制为Transformer的重点它可以使模型更加关注那些比较好的特征忽略差一些的特征 9、Attention内部结构如下图所示 10、Attention接收的输入为单词特征矩阵X或者上一个Encoder block的输入经过三个矩阵WQ、WK、WV的变换得到了三个输入Q、K、V然后经过内部计算得到输出Z 11、Attention内部计算的公式可以概况为 12、Multi-Head Attention将多个Attention的输出拼接在一起传入一个线性层得到最终的输出Z 13、Transformer与RNN相比不能利用单词顺序特征所以需要在输入加入位置特征经过实验加入位置特征比不加位置特征的效果好三个百分点位置特征的编码方式不对模型产生影响。 14、VIT是Transfromer在CV领域的应用VIT第一层的感受野就可以覆盖整张图 15、VIT的结构如下 16、VIT将图片分为多个patch16*16然后将patch投影为多个固定长度的向量送入Transformer利用Transformer的Encoder进行编码并且在输入序列的0位置加入一个特殊的tokentoken对应的输出就可以代表图片的类别 17、Transformer需要大量的数据比CNN多得多需要谷歌那个级别的数据量 18、TNT模型VIT将图片分为了16*16的多个patchTNT认为每个patch还是太大了可以继续进行分割 19、TNT模型方法在VIT基础上将拆分后的patch当作一张图像进行transformer进一步分割划分为新的向量通过全连接改变输出特征大小使其重组后的特征与patch编码大小相同最后与元素输入patch向量进行相加 20、DETR模型用于目标检测结构如下 五、LSTM长短期记忆 这部分基本是代码解析了就没有记录我认为LSTM其实就是RNN的一个分支。
http://www.dnsts.com.cn/news/163020.html

相关文章:

  • 集团网站品牌建设特点wordpress更换通栏图片
  • 建设品牌网站伍壹捌网站建设
  • 辽宁省建设厅安全员考试官方网站苍南最新发布请配合
  • 买服务器做网站主机龙海市城乡建设局网站
  • 网站建设时怎么赚钱的聊城市网站制作
  • 天河网站设计wordpress编辑器教程
  • 佟年帮韩商言做网站是第几集专业房地产网站建设
  • 网站建设属于技术活吗宁波随身云网络科技有限公司
  • 企业自己怎么做网站推广买卖商标交易平台
  • 网站如何做网页查询网站模版更新公告
  • 大网站开发语言wordpress同步到头条号
  • 企业每月报账在哪个网站做seo实战密码完整版
  • 营销型建设网站实训总结萝岗哪家网站建设好
  • 建设微信营销网站社交电商怎么入手
  • 旅游模板网站凤山县网站建设
  • 龙岗 网站建设企业危机公关
  • wordpress 首页制作南宁庄关键词推广优化方案
  • 上海seo课程百度seo推广计划类型包含
  • 惠州网站建设公司曾张家港那家做网站
  • 网站加关键词代码如何建立公司网站电话
  • 海建网站查电商软件下载
  • 友情手机站怎么把自己做的网站让别人收到
  • 如何建设网站论文文献wordpress练习题
  • 重庆模板网站建设费用推广不收费的网站有哪些
  • 网站后期建设网站的成本有哪些
  • 南昌网站建设好企业网站seo优化网站推广全域营销获客公司
  • 做响应式网站用什么框架个人网站的建设方法和过程
  • 买2g 空间做下载网站企业建设网站的方式有两种
  • 沈阳行业网站Wordpress页面手机不适配
  • 网站建设的合同模板ppt模板大全软件下载