当前位置: 首页 > news >正文

河南app手机网站制作沈阳网站关键词优化排名

河南app手机网站制作,沈阳网站关键词优化排名,有关网站建设的外文文献,手机友好型网站Abstract 贡献#xff1a; 提出了Transformer#xff0c;完全基于注意力机制#xff0c;摒弃了循环和卷积网络。 结果#xff1a; 本模型在质量上优于现有模型#xff0c;同时具有更高的并行性#xff0c;并且显著减少了训练时间。 1. Introduction long short-term …Abstract 贡献 提出了Transformer完全基于注意力机制摒弃了循环和卷积网络。 结果 本模型在质量上优于现有模型同时具有更高的并行性并且显著减少了训练时间。 1. Introduction long short-term memoryLSTM——长短期记忆网络gated recurrent neural networks——门控循环神经网络 循环模型通常沿着输入和输出序列的符号位置来分解计算。通过将位置与计算时间步骤对齐它们生成一系列隐藏状态 ht作为前一个隐藏状态 ht−1 和位置 t 的输入的函数。 Transformer完全摒弃循环网络、完全依赖注意力机制来捕捉输入和输出之间全局依赖关系的模型架构。 显著允许增加并行化。 2. Background 减少序列计算。 Extended Neural GPUByteNetConvS2S 在这些模型中关联任意两个输入或输出位置信号所需的操作次数随着位置之间的距离而增加。 Self-attention是一种通过关联同一序列中不同位置来计算该序列表示的注意力机制。 End-to-end memory networks基于一种循环注意力机制而不是与序列对齐的循环网络。 Transformer是第一个完全依赖自注意力来计算输入和输出表示的转换模型没有使用与序列对齐的RNN或卷积网络。 3. Model Architecture 编码器输入x输出z解码器输入z输出y。 在每一步模型都是自回归的在生成下一步时使用先前生成的符号作为附加输入。 3.1 Encoder and Decoder Stacks 编码器 N6每个两层。 第一层多头自注意力机制 第二层逐位置全连接前馈网络。 残差连接层归一化即LayerNorm(x Sublayer(x))。 维度 d m o d e l 512 d_{model} 512 dmodel​512。 解码器 N6每个三层。 二三层同上。 第一层掩码多头自注意力机制。 这种掩码机制结合输出嵌入偏移一个位置确保位置 i 的预测只能依赖于位置 i 之前已知的输出。 3.2 Attention 注意力函数可以描述为将查询query和一组键-值对key-value pairs映射到一个输出其中查询、键、值和输出都是向量。 输出是根据值value的 加权和 计算得到的权重是通过查询query与相应键key之间的兼容性函数计算得出的。 3.2.1 Scaled Dot-Product Attention——缩放点积注意力 输入由维度为 dk 的查询和键以及维度为 dv 的值组成计算查询与所有键的点积将每个点积除以 d k \sqrt{d_k} dk​ ​并应用 softmax 函数以获得值的权重。 在实际应用中会同时对一组查询计算注意力函数使用矩阵计算。 输出矩阵 A t t e n t i o n ( Q , K , V ) s o f t m a x ( Q K T d k ) V Attention(Q, K, V) softmax\left(\frac{QK^T}{\sqrt{d_k}}\right)V Attention(Q,K,V)softmax(dk​ ​QKT​)V 加性注意力点积注意力 对于较大的 dk 值如果没有缩放点积的数值可能会变得很大从而将 softmax 函数推入梯度极小的区域所以缩放 d k \sqrt{d_k} dk​ ​ 。 为什么选择 d k \sqrt{d_k} dk​ ​​​ 而不是其他数这与点积结果的统计性质有关。 3.2.2 Multi-Head Attention h8dkdvdmodel/h64 将查询、键和值分别线性投影为 dk、dk 和 dv 维度的 h 次不同的线性投影。 在这些投影后的查询、键和值上并行执行注意力函数得到 dv​ 维度的输出值。 输出拼接起来并再次投影得到最终的输出值。 多头注意力允许模型在不同的位置上同时关注来自不同表示子空间的信息。 多头注意力公式 M u l t i H e a d ( Q , K , V ) C o n c a t ( h e a d 1 , … , h e a d h ) W O MultiHead(Q, K, V) Concat(head_1, \dots, head_h) W^O MultiHead(Q,K,V)Concat(head1​,…,headh​)WO 第 i 个头的注意力为: h e a d i A t t e n t i o n ( Q W i Q , K W i K , V W i V ) head_i Attention(Q W^Q_i, K W^K_i, V W^V_i) headi​Attention(QWiQ​,KWiK​,VWiV​) 投影矩阵分别为 W i Q ∈ R d m o d e l × d k , W i K ∈ R d m o d e l × d k , W i V ∈ R d m o d e l × d v , W O ∈ R h d v × d m o d e l . W^Q_i \in \mathbb{R}^{d_{model} \times d_k}, \quad W^K_i \in \mathbb{R}^{d_{model} \times d_k}, \quad W^V_i \in \mathbb{R}^{d_{model} \times d_v}, \quad W^O \in \mathbb{R}^{h d_v \times d_{model}}. WiQ​∈Rdmodel​×dk​,WiK​∈Rdmodel​×dk​,WiV​∈Rdmodel​×dv​,WO∈Rhdv​×dmodel​. 3.2.3 Applications of Attention in our Model 编码器-解码器注意力层 查询来自前一层的解码器键和值来自编码器的输出。 编码器自注意力层 键、值和查询全部来自同一个地方它们都来自编码器中前一层的输出。 解码器自注意力层 允许解码器中的每个位置关注解码器中该位置及之前的所有位置。 需要阻止解码器中的左向信息流动。 3.3 Position-wise Feed-Forward Networks——按位置的前馈网络 编码器和解码器中的每一层还包含一个全连接的前馈网络。 该网络由两次线性变换构成中间使用 ReLU 激活函数 F F N ( x ) max ⁡ ( 0 , x W 1 b 1 ) W 2 b 2 FFN(x) \max(0, xW_1 b_1)W_2 b_2 FFN(x)max(0,xW1​b1​)W2​b2​ 线性变换在不同位置之间是相同的但它们在不同层次之间使用不同的参数。 另一种描述方式是将其看作两个卷积卷积核大小为1。输入和输出的维度为 dmodel512而内部层的维度为 dff2048。 3.4 Embeddings and Softmax——嵌入和Softmax 使用学习到的嵌入embeddings来将输入标记tokens和输出标记转换为dmodel维的向量。 使用常规的线性变换和 Softmax 函数将解码器的输出转换为预测的下一个标记的概率。 在两个嵌入层和 Softmax 之前的线性变换中共享相同的权重矩阵。 在嵌入层中将这些权重乘以 d m o d e l \sqrt{d_{model}} dmodel​ ​ ​​。 3.5 Positional Encoding——位置编码 在编码器和解码器堆栈的底部将“位置编码”添加到输入嵌入中。 位置编码的维度与嵌入相同均为 dmodel​这样两者可以相加。 位置编码使用不同频率的正弦和余弦函数 P E ( p o s , 2 i ) sin ⁡ ( p o s 1000 0 2 i d m o d e l ) PE(pos, 2i) \sin\left(\frac{pos}{10000^{\frac{2i}{d_{model}}}}\right) PE(pos,2i)sin(10000dmodel​2i​pos​) P E ( p o s , 2 i 1 ) cos ⁡ ( p o s 1000 0 2 i d m o d e l ) PE(pos, 2i1) \cos\left(\frac{pos}{10000^{\frac{2i}{d_{model}}}}\right) PE(pos,2i1)cos(10000dmodel​2i​pos​) pos 是位置i 是维度。 位置编码的每个维度都对应于一个正弦波。 对于任何固定的偏移量 k位置 P E p o s k PE_{posk} PEposk​​ 可以表示为位置 P E p o s PE_{pos} PEpos​​ 的线性函数。 4. Why Self-Attention 自注意力层与 将一个可变长度的符号表示序列x1, …, xn映射到另一个等长度的序列z1, …, zn的循环层和卷积层 进行比较。 总计算复杂度并行化的计算量长距离依赖的路径长度 学习长距离依赖一个关键因素是前向和后向信号在网络中必须穿过的路径长度。输入和输出序列中任意位置组合之间的这些路径越短学习长距离依赖就越容易。 比较了由不同类型层组成的网络中任意两个输入和输出位置之间的最大路径长度。 在计算复杂度方面当序列长度n小于表示维度d时自注意力层比循环层更快。 为了提高涉及非常长序列的任务的计算性能自注意力可以限制为仅考虑输入序列中以相应输出位置为中心的、大小为r的邻域。这将使最大路径长度增加到O(n/r)。 具有核宽度k n的单个卷积层不会连接所有输入和输出位置对。在连续核的情况下这需要堆叠O(n/k)个卷积层在膨胀卷积的情况下则需要O(logk(n))个卷积层。 不仅单个注意力头明显学会了执行不同的任务而且许多注意力头似乎表现出与句子句法和语义结构相关的行为。 可分离卷积大大降低了复杂度降至O(k · n · d n · d^2)。 5. Training 5.1 Training Data and Batching WMT 2014英德数据集每个训练批次包含一组句子对其中包含大约25,000个源标记和25,000个目标标记。 5.2 Hardware and Schedule 8个NVIDIA P100 GPU基础模型训练了100,000个步骤12小时大型模型训练了300,000个步骤3.5天 5.3 Optimizer Adam优化器 β 1 0.9 \beta_1 0.9 β1​0.9、 β 2 0.98 \beta_2 0.98 β2​0.98 和 ϵ 1 0 − 9 \epsilon 10^{-9} ϵ10−9 学习率公式 l r a t e d model − 0.5 ⋅ min ⁡ ( step_num − 0.5 , step_num ⋅ warmup_steps − 1.5 ) lrate d_{\text{model}}^{-0.5} \cdot \min(\text{step\_num}^{-0.5}, \text{step\_num} \cdot \text{warmup\_steps}^{-1.5}) lratedmodel−0.5​⋅min(step_num−0.5,step_num⋅warmup_steps−1.5) 对应于在前 w a r m u p _ s t e p s warmup\_steps warmup_steps 个训练步骤中线性增加学习率此后按步数的平方根倒数比例减少学习率。 设置 w a r m u p _ s t e p s 4000 warmup\_steps 4000 warmup_steps4000 。 5.4 Regularization 三种正则化方法 残差 Dropout 每个子层的输出加入残差并进行归一化之前应用 dropout。 编码器和解码器堆栈中的嵌入和位置编码的和上应用 dropout。 dropout 率为 P d r o p 0.1 P_{drop} 0.1 Pdrop​0.1 标签平滑 值为 ϵ l s 0.1 \epsilon_{ls} 0.1 ϵls​0.1。 影响困惑度因为模型会学得不那么确定但能提高准确度和 BLEU 分数。 6. Results 6.1 Machine Translation 6.2 Model Variations 7. Conclusion Transformer这是第一个完全基于注意力机制的序列转换模型它用多头自注意力替代了在编码器-解码器架构中最常用的循环层。 计划将 Transformer 扩展到涉及文本以外的输入和输出模式的问题中并研究局部、受限的注意力机制以便高效处理如图像、音频和视频等大型输入和输出。减少生成过程的顺序性也是研究目标之一。
http://www.dnsts.com.cn/news/78360.html

相关文章:

  • 做网站分几步做一个网站的费用构成
  • 泰兴网站设计微信小程序分销功能
  • 网站导航设计欣赏上海网站建设 数字展厅
  • 怎么样建设公司网站哈尔滨seo优化排名免费咨询
  • 网站目录 整理自适应型网站建设服务电话
  • 哈尔滨网站建设有限公司wordpress cascade
  • 怎么免费建立自己的网站字体+添加+wordpress
  • 手机网站建设制作教程视频教程做播放器电影网站需要多少钱6
  • 12个 网站模板 管理办法开服网站源码
  • h5网站制作价格保定有哪些做网站的地方
  • 中国月球空间站招聘网最新招聘信息网
  • 网站建设的英文翻译深圳网站建设怎么样
  • 外贸黄页网站句容建设工程备案网站
  • 怎么样网站建设家具公司网站模板下载
  • 平台网站开发价格seo优化关键词分类
  • 有一个域名做网站地板网站代码
  • 建设银行网站维护wordpress版本选择
  • 蓝天网站建设我国企业网站的建设情况
  • 域名注册在那个网站好广东建设银行网站首页
  • 海外黄冈网站推广线上推广的优势
  • 重庆做营销网站wordpress 连接微博
  • 网站制作公司站建设wordpress后台出现404
  • 网站不推广如何排名淮北市矿务局工程建设公司网站
  • 鼠标放上去图片放大的网站网络服务的工具
  • 成立门户网站建设工作小组卢松松网站怎么做
  • 知识产权教育网站建设兰州迅豹网络怎么样
  • 湖南企业建站系统信息企业网站建设服务优势
  • 什么二手车网站做最好如何制作短视频
  • 天猫官方网站首页wordpress浮动关注我们
  • 网站建设吉金手指排名11柳州网站建设