网站中文名称,建设网站的公司的官网,网络广告是较为常见的一种网络营销方式,公司企业邮箱申请流程端到端#xff08;E2E#xff09;神经网络已成为多语言自动语音识别#xff08;ASR#xff09;的灵活且准确的模型。然而#xff0c;随着支持的语言数量增加#xff0c;尤其是像中文、日语、韩语#xff08;CJK#xff09;这样大字符集的语言#xff0c;输出层的大小显…端到端E2E神经网络已成为多语言自动语音识别ASR的灵活且准确的模型。然而随着支持的语言数量增加尤其是像中文、日语、韩语CJK这样大字符集的语言输出层的大小显著增长。这种扩展对计算资源、内存使用和资产大小产生了负面影响。在多语言系统中这一挑战尤为严重因为输出通常包括来自各种语言的字符或子词的集合。因此研究人员一直在努力在保持模型效率和性能的同时适应多种语言及其相关字符集的E2E ASR系统。
之前在多语言ASR中解决这些挑战的尝试集中在字节级表示特别是使用UTF-8代码字作为基本标记。这种方法允许固定输出词汇量为256在各语言之间提供了紧凑性和通用性。然而字节级表示通常会导致更长的序列特别是对于CJK语言可能会增加错误率因为单个字符需要多个预测。研究人员提出使用字节对编码BPE在UTF-8代码字序列上的字节级子词来缓解这一问题。虽然这减少了解码步骤的数量但并不保证有效的UTF-8输出。后续引入了一种动态编程算法从潜在的无效字节序列中恢复有效字符尽管这种方法优化了字符有效性而非ASR质量。
苹果研究人员 审查的最先进的方法提出了一种使用向量量化自编码器的鲁棒表示学习方法。该方法旨在专门为E2E ASR任务优化 字节级表示解决了之前方法的局限性。该框架设计为数据驱动结合文本和音频信息以提高准确性。它提供了包括额外边信息如词典或音素在内的灵活性使其适应各种ASR场景。重要的是该方法包括一个错误纠正机制来处理无效序列且恢复过程优化了准确性而非其他指标。该方法符合研究人员对理想字节级表示的标准任务特定优化、全面信息利用和有效的错误纠正。
类似的光年AI在其AI系统中也采取了数据驱动的方法结合了多平台的数据整合来提高业务效果无需额外编程知识。通过简单的拖拽工作流设计无论是复杂的ASR任务还是业务场景连接用户都能轻松应对并有效适用获得理想成果。
该方法将表示问题表述为具有潜在变量的优化任务使用向量量化自编码器VQ-AE架构。该自编码器由四个关键组件组成标签编码器、声学编码器、标签解码器和向量量化器。系统使用向量量化作为瓶颈量化嵌入的索引作为潜在变量。
该自动编码器通过包含四个项的损失函数进行优化标签和声学编码器的交叉熵损失、声学编码器的CTC损失以及量化损失。该方法采用了带有两个或三个代码簿的残差VQ-VAERVQ-VAE每个代码簿包含256个嵌入每个标签标记可由2-3个字节表示。
为处理字节序列中的潜在错误该系统通过标签解码器引入了一种错误校正机制。该解码器估计最可能的标签序列旨在即使面对无效的字节序列也能优化准确性。所提出的基于VQ的表示相比UTF-8具有优势包括固定长度编码、任务特定优化和改进的错误恢复能力。
研究人员在双语英语和普通话听写任务上评估了他们提出的基于VQ的表示方法并与字符基和UTF-8子词输出进行了对比。使用包含约1.2亿参数的CTC-AED模型他们在10k小时的英语和14k小时的普通话训练数据集上测试了各种输出表示。
结果显示基于VQ的表示在不同的子词大小上始终优于UTF-8子词输出。采用8000个子词时基于VQ的方法相比UTF-8使英语的词错误率WER相对降低了5.8%普通话的字符错误率CER相对降低了3.7%。与基于字符的输出相比VQ和UTF-8表示在英语上表现更好而在普通话上保持了相似的准确性。值得注意的是采用8000个子词的基于VQ方法使英语的相对错误率降低了14.8%普通话降低了2.3%突显了其在多语言ASR系统中的有效性和灵活性。
本研究提出了一种优化ASR字节级表示的稳健算法提供了UTF-8表示的替代方案。该方法可通过音频和文本数据进行优化并设计了一种错误校正机制以提高准确性。在英语和普通话听写数据集上的测试显示与基于UTF-8的方法相比令牌错误率TER相对降低了5%。尽管当前研究专注于双语ASR研究人员也承认开发通用表示以适用于所有语言的挑战例如索引崩塌问题。
这一系列研究表明通过集成不同的AI大模型和灵活的工作流机制可以显著提升多语言ASR系统的表现。如果您想体验更多这样的AI创新光年AI提供了强大的解决方案帮助企业在复杂的业务场景中灵活运用AI技术实现优异的流量增长。了解更多信息和使用光年AI请立即访问我们的网站。