当前位置: 首页 > news >正文

河南怎么样做网站建筑工程网课代字幕

河南怎么样做网站,建筑工程网课代字幕,安徽网站建,荣耀官网首页官方前言#xff1a; 前面重点讲了self-attention, mulitHead self-attention. 目录#xff1a; self-attention positional Encoding 语音处理例子 跟CNN区别 跟 RNN 区别 一 self-attention 回顾 优点 1 解决了长序列依赖问题 2 并行计算 缺点 1 开销变大 增加了 Q…前言 前面重点讲了self-attention, mulitHead self-attention. 目录 self-attention  positional Encoding 语音处理例子  跟CNN区别  跟 RNN 区别 一  self-attention 回顾 优点         1   解决了长序列依赖问题         2   并行计算 缺点       1   开销变大   增加了 Q,K,V attention-score,B 矩阵       2   输入之间的位置信息丢失了 (PositionEncoding 可以解决     RNN 是按照 seq_num ,依次输入.能看到词与词之间的顺序关系       1.1 Q,K,V 矩阵生成,I 为输入张量 1.2 计算 self-attention 的 attention score 1.3 self-attention 输出 最后用矩阵表示可以看出来 二  Positional Encoding 2.1 作用 把位置信息添加到当前的向量中. 2.2 主要流程 1: 计算位置编码信息 2:  当前向量加上对应的位置信息, 通过sincos 产生的也有其它方案 2.3 例子 其中 是通过下面PE编码得到. 偶数位置编码为 奇数位置编码为 2.4 原理 利用和差化积定义 posk 位置的编码:  可以表示为pos 位置与k位置正线余弦的线性组合.从而蕴含了相对位置信息 # -*- coding: utf-8 -*-Created on Fri Jul 26 17:29:07 2024author: chengxf2import numpy as npdef pos_encoding(pos ,dmodel):N int(dmodel/2)e []for i in range(N):a1 (2*i)/dmodela2 (2*i1)/dmodelw1 pos/np.power(10000, a1)w2 pos/np.power(10000, a2)even round(np.sin(w1),4)odd round(np.cos(w2),4)#print(\n i: %d %4.2f %4.2f%(i,even, odd))e.append(even)e.append(odd)print(e)pos_encoding(1,512) 三 语音识别的例子 1  语音线分帧  10ms 一帧1个列向量 2  1s 对应100帧,100个向量 3 一段语音对应的seq_len 是非常大的10s 就对应seq_len1000 2.1 直接使用selt-attention 计算量非常大 Q,K,V 总共需要  seq_len* [input_dim, hidden_dim]*3 内存大小 可以使用truncated self-attention,  每个向量只计算一小段 或者间隔采样. 四  self-attention Image  Vs CNN 4.1 CNN 如上图一张R,G,B 图片输入 shape [batch, input_channel3, height5,width3] 4.2 self-attention 输入 shape[batch, seq_lenwidth*height10*5, input_dim channel3] self-attention,依次对每个通道的图片做Q,K,V,然后计算出attention-score. 4.3  例子 https://arxiv.org/pdf/1805.08318v2 4.4  跟CNN区别 4.5 对比结果 self-attention 当数据集小的时候容易过拟合.  低于1000Wself-attention 低于CNN 数据集大于CNN 五  self-attention VS RNN 5.1 RNN RNN 每个vector 考虑了左边的输入 RNN 没办法并行处理所有output 5.2  slef-attention 考虑了整个vector, 可以从非常远的位置抽取相关信息。 可以并行输出 运算速度更快。 参考 self-attention下_哔哩哔哩_bilibili 14 Transformer之位置编码Positional Encoding 为什么 Self-Attention 需要位置编码_哔哩哔哩_bilibili Curated Color Palettes with Search and Tags Support 14 Transformer之位置编码Positional Encoding 为什么 Self-Attention 需要位置编码_哔哩哔哩_bilibili
http://www.dnsts.com.cn/news/34063.html

相关文章:

  • 做网站架构需要什么步骤上海企业做网站
  • 在线男人和女人做那件事网站百度收录接口
  • 武胜网站建设seo网站推广工作内容
  • 电商网站开发详细介绍网站制作 p
  • seo网站关键词优化沧县网站建设
  • 建网站卖阀门开车小视频素材
  • 网站选择理由描述做网站需要几大模板
  • 青岛网站建设方案外包wordpress 百度空间
  • 旅游网站名称设计网站建设中国十强
  • 旅游网站开发分析报告嘉兴网站建设维护
  • 哪里有男男做受网站接广告的网站
  • 网站建设的发展历程网站建设及 维护合同
  • 转包网站建设做非法事情网站大图轮播
  • 搜索引擎不收录网站网站建站哪个公司好一点
  • 网站建设软件开发公司哪些网站可以做兼职
  • 四川城乡和住房建设厅官方网站vps网站搬家
  • 如何建设网站功能设计通用cms网站
  • 番禺网站建设企业帝国cms搭建个人网站
  • 无锡网站建设365caiyi福田欧曼服务站
  • 免费网站后台模版用wordpress搭建知名网站
  • 建立了公司网站连云港东海县做网站
  • 外国英文设计网站小型企业管理软件哪个好
  • 做网站需要考虑seo吗莱州相亲网站
  • 商务网站开发文档网站设置怎么调
  • 在线网站软件免费下载潍坊网站制作企业
  • 河南郑州app建设网站wordpress skydrive
  • 南通网站建设 南大街比较商务网站的营销策略
  • 创新的营销型网站设计公司名称大全与寓意
  • 光华路网站建设百度首页登录官网
  • 沙坪坝网站开发企业网站建设规划书