当前位置: 首页 > news >正文

做网站买服务器怎么样如何进入公司网站后台

做网站买服务器怎么样,如何进入公司网站后台,西安到北京,ui设计培训班的学费一般是多少钱?1、开放词表 1.1 大词表和未登陆词问题 理想情况下#xff0c;机器翻译应该是一个开放词表#xff08;Open Vocabulary#xff09;的翻译任务。也就是#xff0c;无论测试数据中包含什么样的词#xff0c;机器翻译系统都应该能够正常翻译。 现实的情况是即使不断扩充词…1、开放词表 1.1 大词表和未登陆词问题 理想情况下机器翻译应该是一个开放词表Open Vocabulary的翻译任务。也就是无论测试数据中包含什么样的词机器翻译系统都应该能够正常翻译。 现实的情况是即使不断扩充词表也不可能覆盖所有可能的单词。这个问题在使用受限词表时会更加严重因为低频词和未见过的词都会被看作未登录词。这时会将这些单词用符号 UNK 代替。 在建模中词表中的每一个单词都会被转换为分布式向量表示即词嵌入。如果要覆盖更多的翻译现象词表会不断膨胀并带来两个问题 • 数据稀疏。很多不常见的低频词包含在词表中而这些低频词的词嵌入表示很难得到充分学习。 • 参数及计算量的增大。大词表会增加词嵌入矩阵的大小同时也会显著增加输出层中线性变换和 Softmax 的计算量。 1.2 子词 有没有一种方式能够兼顾基于单词和基于字符方法的优点的方法来解决开放词表翻译问题 常用的手段包括两种一种是采用字词融合的方式构建词表将未知单词转换为字符的序列并通过特殊的标记将其与普通的单词区分开来。而另一种方式是将单词切分为子词Sub-word它是介于单词和字符中间的一种语言单元表示形式。 在神经机器翻译中基于子词的切分是很常用的数据处理方法称为子词切分。主要包括三个步骤 • 对原始数据进行分词操作 • 构建符号合并表 • 根据合并表将字符合并为子词。 这里面的核心是如何构建符号合并表。 1.3 双字节编码 字节对编码或双字节编码BPE是一种常用的子词词表构建方法。把子词切分看作是学习对自然语言句子进行压缩编码表示的问题。 不仅可以单独对源语言和目标语言句子进行子词的切分也可以联合两种语言共同进行子词切分被称作双字节联合编码Joint-BPE。相比于单语 BPE Joint-BPE 可以增加两种语言子词切分的一致性。对于相似语系中的语言如英语和德语常使用 Joint-BPE 的方法联合构建词表。而对于汉语和英语这些差异比较大的语种则需要独立地进行子词切分。 1.4 其他方法 基于 Word Piece 的子词切分方法利用语言模型进行子词词表的构造。本质上基于语言模型的方法和基于 BPE 的方法的思路相同即通过合并字符和子词不断生成新的子词。它们的区别在于合并子词的方式基于BPE 的方法选择出现频次最高的连续字符进行合并而基于语言模型的方法则是根据语言模型输出的概率选择要合并哪些子词。 一些规范化方法来避免切分错误引起的翻译效果变差 • 子词规范化方法。其做法是根据 1-gram 语言模型采样出多种子词切分候选。之后最大化整个句子的概率为目标来构建词表。 • BPE-Dropout。在训练时按照一定概率 p 随机丢弃一些可行的合并操作从而产生不同的子词切分结果。相当于在子词的粒度上对输入的序列进行扰动进而达到增加训练健壮性的目的。 • 动态规划编码Dynamic Programming Encoding DPE。引入了混合字符-子词的切分方式将句子的子词切分看作一种隐含变量。机器翻译解码端的输入是基于字符表示的目标语言序列推断时将每个时间步的输出映射到预先设定好的子词词表之上得到当前最可能的子词结果。 2、正则化 用于缓解过拟合问题。 适定的Well-posed。所谓适定解需要满足三个条件解是存在的、解是唯一的、解是稳定的即 y 微小的变化会导致 x 微小的变化也被称作解连续。所有不存在唯一稳定解的问题都被称作不适定问题Ill-posed Problem。 存在性和唯一性并不会对机器学习方法造成太大困扰因为在实践中往往会找到近似的解。但是解的稳定性却给神经机器翻译带来了很大的挑战。 在神经机器翻译模型中稳定性训练还面临两方面问题 • 观测数据不充分。从样本的表示空间上看对于没有观测样本的区域根本无法知道真实解的样子因此也很难描述这些样本的性质更不用说稳定性训练了。 • 数据中存在噪声。噪声问题是稳定性训练最大的挑战之一。因为即使是很小的噪声也可能会导致解的巨大变化。 以上问题体现出来的现象就是过拟合。因为训练数据有限且存在噪声因此模型参数会过分拟合噪声数据。正则化正是针对这个问题。有时候正则化也被称作降噪Denoising。 正则化的一种实现是在训练目标中引入一个正则项。在神经机器翻译中引入正则项的训练目标为其中 w 是模型参数 Loss(w) 是损失函数 R(w) 是正则项 λ 是正则项的系数用于控制正则化对训练影响的程度。 R(w) 通常也可以被看作是一种先验因为在数据不充分且存在噪声的情况下可以根据一些先验知识让模型偏向正确的方向一些而不是一味地根据受噪声影响的 Loss(w) 进行优化。引入正则化后的模型可以获得更好的泛化Generalization能力在新的未见数据上表现会更好。 2.1 L1/L2正则化 从几何的角度看 L1和 L2 正则项都是有物理意义的。二者都可以被看作是空间上的一个区域比如在二维平面上 l1 范数表示一个以 0 点为中心的菱形 l2 范数表示一个以 0 点为中心的圆。 L1 和 L2正则项引入了一个先验模型的解不应该离 0 点太远。而 L1 和 L2 正则项实际上是在度量这个距离。L1 和 L2 正则项的目的是防止模型为了匹配少数噪声样本而导致模型参数的值过大。反过来说 L1 和 L2 正则项会鼓励那些参数值在 0 点附近的情况。 2.2 标签平滑 标签平滑的思想很简单答案所对应的单词不应该“独享”所有的概率其它单词应该有机会作为答案。在复杂模型的参数估计中往往需要给未见或者低频事件分配一些概率以保证模型具有更好的泛化能力。标签平滑也可以被看作是对损失函数的一种调整并引入了额外的先验知识。 2.3 Dropout 随着每一层神经元数量的增加以及网络结构的复杂化神经元之间会出现相互适应Co-adaptation的现象。所谓相互适应是指一个神经元对输出的贡献与同一层其它神经元的行为是 相关的也就是说这个神经元已经适应到它周围的“环境”中。 相互适应的好处在于神经网络可以处理更加复杂的问题因为联合使用两个神经元要比单独使用每个神经元的表示能力强。不过另一方面相互适应会导致模型变得更加“脆弱”。因为相互适应的神经元可以更好的描述训练数据中的现象但是在测试数据上由于很多现象是未见的细微的扰动 会导致神经元无法适应。具体体现出来就是过拟合问题。 Dropout 方法的另一种解释是在训练中屏蔽掉一些神经元相当于从原始的神经网络中抽取出了一个子网络。这样每次训练都在一个随机生成的子网络上进行而不同子网络之间的参数是共享的。在推断时则把所有的子网络集成到一起。这种思想也有一些集成学习Ensemble Learning的味道只不过 Dropout 中子模型或子网络是在指数级空间中采样出来的。由于 Dropout 可以很好的缓解复杂神经网络模型的过拟合问题因此也成为了大多数神经机器翻译系统的标配。 对于深层神经网络Layer Dropout 也是一种有效的防止过拟合的方法。 3、对抗样本训练 决定神经网络模型健壮性的因素主要包括训练数据、模型结构、正则化方法等。仅仅从模型的角度来改善健壮性一般是较为困难的。一种简单直接的方法是从训练样本出发让模型在学习的过程中能对样本中的扰动进行处理进而在推断时更加健壮。具体来说可以在训练过程中构造有噪声的样本即基于对抗样本Adversarial Examples进行对抗训练Adversarial Training 3.1 对抗样本及对抗攻击 通过在原样本上增加一些难以察觉的扰动从而使模型得到错误判断的样本被称为对抗样本。 对于模型的输入 x 和输出 y对抗样本形式上可以被描述为 其中 (x′,y) 为输入中含有扰动的对抗样本函数 C(·) 为模型。公式中 Ψ(x,x′)表示扰动后的输入 x′ 和原输入 x 之间的距离 ε 表示扰动的受限范围。当模型对包含噪声的数据容易给出较差的结果时往往意味着该模型的抗干扰能力差因此可以利用对抗样本检测现有模型的健壮性。 采用类似数据增强的方式将对抗样本混合至训练数据中能够使模型得到稳定的预测能力这种方式也被称为对抗训练。 关键问题如何生成对抗样本 通过当前模型 C 和样本 (x,y)生成对抗样本的过程被称为对抗攻击Adversarial Attack。 对抗攻击可以被分为黑盒攻击和白盒攻击。 在白盒攻击中攻击算法可以访问模型的完整信息包括模型结构、网络参数、损失函数、激活函数、输入和输出数据等。 黑盒攻击通常依赖启发式方法来生成对抗样本不需要知道神经网络的详细信息仅仅通过访问模型的输入和输出就可以达到攻击的目的。由于神经网络其本身便是一个黑盒模型因此在神经网络的相关应用中黑盒攻击方法更加实用。 3.2 基于黑盒攻击的方法 实现对抗样本生成的方法 1对文本加噪声。噪声可以分为自然噪声和人工噪声。自然噪声一般是指在语料库中自然出现的错误如输入错误、拼写错误等。人为噪声是通过人工设计的自动方法修改文本例如可以通过规则或是噪声生成器在干净的数据中以一定的概率引入拼写错误、语法错误等。 2通过文本编辑的方式在不改变语义的情况下尽可能修改文本从而构建对抗样本。文本的编辑方式主要包括交换、插入、替换和删除操作。 可以利用如 FGSM 等算法验证文本中每一个单词的贡献度同时为每一个单词构建一个候选池包括该单词的近义词、拼写错误词、同音词等。对于贡献度较低的词如语气词、副词等可以使用插入、删除操作进行扰动。对于其他的单词可以在候选池中选择相应的单词并进行替换。其中交换操作可以是基于词级别的比如交换序列中的单词也可以是基于字符级别的例如交换单词中的字符。重复进行上述的编辑操作直至编辑出的文本可以误导模型做出错误的判断。 3回译技术也是生成对抗样本的一种有效方式。回译就是通过反向模型将目标语言翻译成源语言并将翻译得到的双语数据用于模型训练。 3.3 基于白盒攻击的方法 在模型内部增加扰动。 1在每一个词的词嵌入上累加一个正态分布的变量之后将其作为模型的最终输入。 2可以在编码器输出中引入额外的噪声能起到与在层输入中增加扰动相类似的效果。 3可以使用基于梯度的方法来生成对抗样本 。 4、学习策略 4.1 模型训练时遇到的一些问题 1曝光偏执问题。 2训练目标函数极大似然估计与任务评价指标BLEU等不一致问题。 4.3 强化学习方法 1最小风险训练 引入了评价指标作为损失函数并优化模型将预期风险降至最低。 2演员-评价家方法 演员就是策略 p而评论家就是动作价值函数 Q 的估计 Q˜。 5、知识蒸馏 把“大”模型的知识传递给“小”模型就是知识蒸馏的基本思想。 5.1 什么是知识蒸馏 知识蒸馏可以被看作是一种知识迁移的手段。如果把“大”模型的知识迁移到“小”模型这种方法的直接结果就是模型压缩Model Compression 知识蒸馏基于两个假设 • “知识”在模型间是可迁移的。即一个模型中蕴含的规律可以被另一个模型使用。 • 模型所蕴含的“知识”比原始数据中的“知识”更容易被学习到。 第二个假设对应了机器学习中的一大类问题 —— 学习难度Learning Difficulty。所谓难度是指在给定一个模型的情况下需要花费多少代价对目标任务进行学习。 知识蒸馏本身也体现了一种“自学习”的思想。即利用模型自己的预测来教模型自己。这样既保证了知识可以向更轻量的模型迁移同时也避免了模型从原始数据中学习难度大的问题。在需要一个性能优越存储较小的模型时也会考虑将大模型压缩得到更轻量模型。 通常把“大”模型看作是传授知识的“教师”被称作教师模型Teacher Model把“小”模型看作是接收知识的“学生”被称作学生模型Student Model。比如可以把 Transformer-Big 看作是教师模型把 Transformer-Base 看作是学生模型。 5.2 知识蒸馏的基本方法 知识蒸馏的基本思路是让学生模型尽可能去拟合教师模型通常有两种实现方式 1基于单词的知识蒸馏Word-level Knowledge Distillation 该方法的目标是使得学生模型的预测分布尽可能逼近教师模型的预测分布。基于单词的知识蒸馏的损失函数被定义为 实际上在最小化教师模型和学生模型输出分布之间的交叉熵。 2基于序列的知识蒸馏Sequence-level Knowledge Distillation 基于序列的知识蒸馏希望在序列整体上进行拟合。其损失函数被定义为考虑用教师模型的真实输出序列 yˆ 来代替整个空间即假设 Pt(ˆ y|x) 1。于是目标函数变为 这样的损失函数最直接的好处是知识蒸馏的流程会非常简单。因为只需要利用教师模型将训练数据源语言翻译一遍之后把它的输出替换为训练数据的目标语言部分。之后利用新得到的双语数据训练学生模型即可。 5.3 机器翻译中的知识蒸馏 通过知识蒸馏教师模型构造伪数据之后让学生模型从伪数据中学习。另一个问题是如何构造教师模型和学生模型。 以 Transformer 为例通常有两种思路 1固定教师模型通过减少模型容量的方式设计学生模型。 使用容量较大的模型作为教师模型然后通过将神经网络变“窄”、变“浅”的方式得到学生模型。例如可以用 Transformer-Big做教师模型然后把它的解码器变为一层网络作为学生模型。 2固定学生模型通过模型集成的方式设计教师模型。 可以组合多个模型生成更高质量的译文。比如融合多个 Transformer-Big 模型不同参数初始化方式之后学习一个 Transformer-Base 模型。 3迭代式知识蒸馏的方式。 6、基于样本价值的学习 当训练机器翻译模型时通常是将全部的样本以随机的方式输入模型中进行学习换句话说就是让模型来平等地对待所有的训练样本。这种方式忽略了样本对于模型训练的“价值”显然更加理想的方式是优先使用价值高的样本对模型进行训练。 围绕训练样本的价值差异产生了诸如数据选择、主动学习、课程学习等一系列的样本使用方法这些学习策略本质上是在不同任务、不同背景、不同假设下对如何高效地利用训练样本这一问题进行求解。 6.1 数据选择 数据选择则是缓解领域差异和标签噪声等问题的一种有效手段它的学习策略是让模型有选择地使用样本进行学习。 上述方法都基于一个假设在训练过程中每个样本都是有价值的且这种价值可以计算。 价值在不同任务背景下有不同的含义这与任务的特性有关。比如在领域相关数据选择中样本的价值表示这个样本与领域的相关性在数据降噪中价值表示样本的可信度在主动学习中价值表示样本的难易程度。 1领域相关的数据选择 机器翻译的领域适应Domain Adaptation即从资源丰富的领域称为源领域 Source Domain向资源稀缺的领域称为目标领域 Target Domain迁移。 数据选择Data Selection从源领域训练数据中选择与目标领域更加相关的样本进行模型训 练降低不相关样本数据的比例。 数据选择所要解决的核心问题是给定一个目标领域/任务数据集如何衡量原始训练样本与目标领域/任务的相关性主要方法可以分为以下几类 • 基于交叉熵差Cross-entropy Difference CED 的方法。该方法在目标领域数据和通用数据上分别训练语言模型然后用两个语言模型来给句子打分并做差差越小说明句子与目标领域越相关。 • 基于文本分类的方法。将问题转化为文本分类问题先构造一个领域分类器之后利用分类器对给定的句子进行领域分类最后用输出的概率来打分选择得分高的样本。 • 基于特征衰减算法Feature Decay Algorithms FDA 的方法。该算法基于特征匹配试图从源领域中提取出一个句子集合这些句子能够最大程度覆盖目标领域的语言特征。 这个方法也有它的缺点比如选定的子集导致词表覆盖率低加剧单词长尾分布问题。 动态学习策略主要有两种方法一种是将句子的领域相似性表达成概率分布然后在训练过程中根据该分布对数据进行动态采样另一种是在计算损失函数时根据句子的领域相似性以加权的方式进行训练。相比于静态方法的二元选择方式动态方法是一种“软”选择的方式这使得模型有机会使用到其它数据提高了训练数据的多样性因此性能也更稳定。 2数据降噪 训练数据中存在噪声比如经常出现句子未对齐、多种语言文字混合、单词丢失等问题。 可以用诸如句子长度比、词对齐率、最长连续未对齐序列长度等一些特征来对句子进行综合评分也可以将该问题转化为分类任务来对句子进行筛选。 3主动学习Active Learning 主动学习主要由五个部分组成包括未标注样本池、筛选策略、标注者、标注样本集、目标模型。在主动学习过程中会根据当前的模型状态找到未标注样本池中最有价值的样本之后送给标 注者。标注结束后会把标注的样本加入到标注样本集中之后用这些标注的样本更新模型。之后重复这个过程直到到达某种收敛状态。 主动学习的一个核心问题是如何选择出那些最有价值的未标注样本通常会假设模型认为最“难”的样本是最有价值的。具体实现有很多思路例如基于置信度的方法、基于分类错误的方法等等 6.2 课程学习 课程学习Curriculum Learning的基本思想是先学习简单的、普适性的知识然后逐渐增加难度学习更复杂、更专业化的知识。在统计模型训练中这种思想可以体现在让模型按照由“易”到“难”的顺序对样本进行学习。 好处是 加速模型训练使模型获得更好的泛化性能。 设计课程学习方法的核心问题是 • 如何评估每个样本的难度即设计评估样本学习难易度的准则简称难度评估准则Difficulty Criteria ---难度评估器。 • 以何种策略来规划训练数据即何时为训练提供更复杂的样本以及提供多少样本等称为课程规划Curriculum Schedule。--训练调度器。 样本难度的评估方法有很多比如句子长度、句子平均词频、句法树深度等基于模型的方法等。 调度策略可以分为预定义的和自动的两种。预定义的调度策略通常将按照难易程度排序好的样本划分为块每个块中包含一定数量的难度相似的样本。然后按照“先易后难”的原则人工定义一个调度策略。另一种方法是自动的方法根据模型的反馈来动态调整样本的难度或调度策略模型的反馈 可以是模型的不确定性、模型的能力等。这些方法在一定程度上使得整个训练过程和模型的状态相匹配同时样本的选择过渡得更加平滑因此在实践中取得了不错的效果。 6.3 持续学习 当把模型切换到新的任务时本质上是数据的分布发生了变化从这种分布差异过大的数据中不断增量获取可用信息很容易导致灾难性遗忘Catastrophic Forgetting问题即用新数据训练模型的时候会干扰先前学习的知识。 稳定性-可塑性Stability-Plasticity问题学习系统一方面必须能连续获取新知识和完善现有知 识另一方面还应防止新数据输入明显干扰现有的知识。可塑性指整合新知识的能力稳定性指保留先前的知识不至于遗忘。 要解决这些问题就需要模型在保留先前任务的知识与学习当前任务的新知识之间取得平衡。目前的解决方法可以分为以下几类 1基于正则化的方法。通过对模型参数的更新施加约束来减轻灾难性的遗忘通常是在损失函数中引入了一个额外的正则化项使得模型在学习新数据时巩固先前的知识。 2基于实例的方法。在学习新任务的同时混合训练先前的任务样本以减轻遗忘这些样本可以是从先前任务的训练数据中精心挑选出的子集或者利用生成模型生成的伪样本。 3基于动态模型架构的方法。例如增加神经元或新的神经网络层进行重新训练或者是在新任务训练时只更新部分参数。
http://www.dnsts.com.cn/news/94828.html

相关文章:

  • h5网站制作报价做网站的销售怎么样
  • 东莞市住房和城乡建设局网站sem优化案例
  • 驻马店河南网站建设教你如何快速建站
  • 网站建设咨询问卷网上商城有哪几个
  • 工艺品网站建设大埔县住房和城乡规划建设局网站
  • 网站代运营wordpress 注册赠送
  • 网站交互怎么做的专业提供网站建设服务公司
  • 企业建站找哪个公司用htlm做静态网站怎么用
  • 邯郸网站优化怎么做wordpress font awesome
  • 长春网站建设首选网诚传媒天蒙旅游区网络营销推广方法
  • 网站是怎么盈利的荥阳网页设计
  • 扬州市城乡建设局招标网站做一个网址多少钱
  • 东莞信科网站建设网络营销研究背景及意义
  • 部分网站为什么网页打不开的原因及解决方法深圳房地产网站建设
  • 宝塔建设的网站火车头发布失败seo关键词优化软件排名
  • 那个网站可以做数学题赚钱摄影logo设计
  • 珠宝设计网站长尾词排名优化软件
  • 从百万到千万 网站怎么优化移动积分兑换商城官方网站
  • 个人网站怎么建立步骤网站正在建设中9797
  • 安装wordpress主题优化关键词的正确方法
  • 长沙优化网站建设南宁网站设计方案
  • 网站需要在哪些方面备案外贸网站建设 双语网站建设
  • 网站模板下载 免费用腾讯云做网站的好处
  • 代做网站排名小型企业网站开发价格
  • app网站开发案例wordpress 关闭
  • 徐州网站建设方案优化企业邮箱安全吗
  • asp网站自动识别手机找外包做网站不给代码
  • 有关网站开发的参考文献公司网站后台打不开
  • 海会主机做的网站都能干什么的中国十大热门网站
  • 做兼职的网站有哪些工作英国有哪些做折扣的网站有哪些