当前位置: 首页 > news >正文

网站建设人员的岗位职责网站建设与营销

网站建设人员的岗位职责,网站建设与营销,网络营销课程是什么,单产品网站Multi-modal Alignment using Representation Codebook 题目Multi-modal Alignment using Representation Codebook译题使用表示代码集的多模态对齐期刊/会议CVPR 摘要#xff1a;对齐来自不同模态的信号是视觉语言表征学习#xff08;representation learning#xff09;的…Multi-modal Alignment using Representation Codebook 题目Multi-modal Alignment using Representation Codebook译题使用表示代码集的多模态对齐期刊/会议CVPR 摘要对齐来自不同模态的信号是视觉语言表征学习representation learning的重要一步因为它会影响后期阶段的表现如跨模态融合across-modality fusion。由于图像和文本通常位于特征空间的不同区域在实例级别直接对齐它们是具有挑战性的尤其是当特征在训练过程中仍在演变时。在本文中我们建议使用聚类表示cluster representation在更高、更稳定的水平上进行对齐。具体来说我们将图像和文本视为同一实体的两个“视图”并将它们编码到由聚类中心字典codebook跨越的联合视觉语言编码空间中。我们通过正样本和负样本的聚类分配进行对比同时优化聚类中心。为了进一步平滑学习过程我们采用了师生蒸馏范式teacher-student distillation paradigm一种观点的动量教师momentum teacher指导另一种观点的学生学习。我们在通用视觉语言基准上评估了我们的方法并在零样本跨模态检索上获得了新的 SoTA同时在其他各种传输任务上具有竞争力。 1.引言 视觉语言Vision language VL表征学习representation learning是使用图像和文本信号学习统一 特征嵌入 的问题。经过预训练的 VL 模型在不同环境下的各种下游任务中downstream tasks具有巨大的多样性应用例如通过迁移学习[8, 28, 49]。VL 预训练的主要任务包括对齐不同模态的特征空间多模态对齐[8, 25, 28, 31]和捕捉模态之间的交互跨模态融合[12, 44]。CLIP[37]和 ALIGN[21]等后期融合方法专注于第一项任务而 OSCAR[28]、VinVL[49]和 VilLT[22]等早期融合方法专注第二项任务。在这项工作中我们采用了一种类似于 ALBEF[25]的混合方法其中来自图像和文本模态的特征首先对齐。然后使用 Transformer 编码器进行融合。我们工作的主要重点是特征对齐阶段这是一个具有挑战性的阶段因为图像和文本输入具有非常不同的特征。现有的方法如 CLIP [37]和 ALIGN [21]必须依赖于大量的训练资源和大量的数据来获得良好的对齐分别为 400M 和 1.8B 的图像-文本对。 在这项工作中我们通过使用将公共文本图像特征空间common text-image feature space量化为码字的码本提出了一种更有效的对齐策略。与单个文本或视觉特征相比这些码字或聚类中心为对比推理提供了更稳定的手段。我们的灵感来自 SwAV [4]它是为自我监督的视觉表征学习representation learning而开发的。在[4]中同一输入图像的两个增强版本视图通过深度网络进行特征提取。视觉嵌入是通过优化一个目标函数来学习的该目标函数强制一个视图中的特征和另一视图中指定的聚类之间的一致性。SwAV 在各种转移任务中取得了令人印象深刻的性能见[4]。在这里我们进行了跨模态图像文本的对比推理而不是跨图像视图。详细信息见第 3.1 节但简而言之我们对图像和文本模式都使用了可学习的代码簿并训练我们的模型使用文本或视觉信息来预测码字分配。有效地在训练过程中通过与常见码字对齐来排列视觉和文本特征。如图1 所示。 图1 我们建议使用可学习的码本来更好地对齐图像和文本模态。代码本是图像和文本特征之间的 “桥梁” 。每个码字都可以被解释为一个原型从而能够在集群级别对比图像和文本。然后我们解决了一个最优传输[1]问题以优化每个模态到原型之间的距离这反过来又优化了两个模态之间的对齐。原型向量与我们的 VL 框架中的特征编码器一起学习。 码本可以被认为是底层输出特征分布的量化样本。它与模型参数一起是端到端可学习的。为了避免训练过程中的突然变化我们进一步采用了动量蒸馏这在以前的自我监督学习工作中已被广泛使用如 BYOL [16]、DINO [5]、MoCo [18]。简言之与 ALBEF [25]类似对于图像、文本和融合编码器中的每一个都有一个相应的编码器该编码器通过移动平均进行更新而没有梯度反向传播。这些动量编码器充当教师指导自我监督的学习过程。与 ALBEF[25]不同我们使用教师来指导 codebook 学习以及跨模态和模态内对齐。 上述两个组件被连接起来以支持 codebook 的稳定更新这反过来又为跨模态对齐提供了有效的正则化均值regularization mean。实验结果第4节表明即使与使用大量数据的方法如 CLIP [37]和 ALIGN [21]相比我们的方法在各种基准上也与最先进的方法具有竞争力。综上所述我们的主要贡献如下 我们提出了一种基于 codebook 的有效视觉语言对齐学习方法。它是自监督视觉表示学习self-supervised vision representation learning ,SSL到多模态设置的扩展我们引入了一种新的提取算法该算法有助于单模态和跨模态对比优化并有助于稳定 codebook 学习。 本文的其余部分组织如下。我们在第2节中介绍了我们的相关工作。在第 3 节中我们描述了我们的框架称为 Codebook Learning with DistrictionCODIS以及它的两个组成部分多模态 codebook 学习和师生蒸馏teacher-student distillation。实验结果见第 4 节。第5节是论文的总结。 2.相关工作 视觉语言预训练(VL) VL pretraining 是一个活跃的研究领域近年来有许多研究成果。我们在这里回顾与我们最相关的作品。就架构而言以前的方法可以大致分为早期融合和后期融合两类。在早期的融合方法[8, 22, 28, 41]中图像和文本被转换为序列标记化并传递给单个编码器通常基于 Transformer 用于嵌入生成embedding generation。因此多模态信号在早期阶段被融合。而在后期融合工作[21,37]中单独的编码器用于图像和文本。提取的特征通常在随后的微调阶段later fine tuning stage进行融合。我们的工作是这两种方法的混合类似于[25,48]。主要区别在于 codebook 和各种相关的对比损失contrastive losses。 在视觉语言学习中码本在最近的一些工作中被使用主要用于图像标记化。 BEiT [2]构建了一个视觉单词词典然后使用它以与掩码语言建模相同的方式形成掩码图像建模任务。SOHO [20]将视觉词典集成到主模型中并对两者进行联合训练。这两个工作都量化了视觉输入空间。相反我们的 codebook 用于量化联合输出空间其中多模态视图通过 最优传输 进行对齐[1]。与我们同时进行的其他工作包括[25, 27]。它们都使用 InfoNCE [33]来对齐跨模态实例。相比之下我们在实例级别和集群级别都强制执行单峰和跨模态对齐unimodal and cross-modal alignment。 自监督对比学习Self-supervised Contrastive Learning对比学习[17]的目标是吸引正样本对排斥负样本对。最近它已被广泛用于计算机视觉中的无监督、半监督[13]和自监督表示学习[5, 7, 18]。对比推理通常是基于同一输入图像的两个增强视图形成的。主要挑战之一是 feature collapsing 在实践中需要通过大批量large batch size[7]或存储体memory banks[18, 45]来大量的负样本以缓解这一问题。最近的几项工作表明人们可以在不区分实例的情况下学习无监督特征。深度集群deep clustering[3]和 SwAV [4]将在线集群纳入 Siamese 网络。在 BYOL [16]中通过将特征与动量编码器获得的表示进行匹配来训练特征。DINO [5]用视觉 Transformer 实例化动量编码器并采用师生蒸馏范式distillation paradigm[13, 19, 47]。我们的对齐技术和动量更新受到了这些工作的启发可以被视为对多模式设置的扩展。 3.方法 我们的目标是学习图像和文本特征之间的明确对齐explicit alignment以促进多模态交互。我们在 图2 中说明了 CODIS 并在算法1 中提出了一个伪代码pseudo-code实现。它与自我监督对比学习有一些相似之处[4, 18]。我们将图像和文本模态视为两种观点并采用师生蒸馏范式[5, 16]来强制实现单峰和跨模态对齐unimodal and cross-modal alignment。为了克服多模态分布之间的差距我们还学习了一个 codebook 它可以作为帮助对齐不同模态之间特征的桥梁。我们将本节的内容组织如下。 图2 我们的框架概述。为了简单起见我们只显示一对师生编码器例如教师用于图像学生用于文本类似地也用于内存队列。教师使用学生的指数移动平均值来自相同的模态进行更新。codebook 有助于弥合不同模态之间的差距。整个框架是端到端优化的。 在第 3.1 节中我们介绍了多模态 codebook 学习它是如何优化的以及如何利用它来解决多模态输入之间的分布不匹配问题。在第 3.2 节中我们介绍了如何在师生蒸馏distillation学习公式下实现单峰和跨模态对齐。最后我们在第 3.3节 中解释了我们提出的两个组件是如何集成到 VL 框架中的。 3.1 多模态 codebook 学习 我们提议学习一本 codebook 以便于对齐多模态语义。这是一个可学习的原型(prototypes)或码字(codewords)的集合。在本文中我们可以互换使用它们。使用 codebook 我们将图像和文本编码到联合视觉语言嵌入空间中并通过对比它们的原型分配来学习对齐。codebook 也可以被解释为配对数据的基本特征分布(underlying feature distribution)[6]。通过这种方式通过将每个模态的特征与 codebook 对齐我们隐式地间接对齐多模态特征。换句话说codebook 充当了模态之间的“桥梁”见图1。 我们将可学习 codebook 表示为 Cc1,c2,...,cK∈Rdc∗KC{c_1, c_2, ..., c_K} \in R^{d_c*K}Cc1​,c2​,...,cK​∈Rdc​∗K其中 dcd_cdc​ 是每个代码的维度并且 KKK 等于 codewords 的数量即4K。我们设置 dc256d_c256dc​256与投影图像/文本特征的尺寸相同。每个 c∈Cc \in Cc∈C 都是一个原型。 给定 NNN 个图像或文本特征向量 Zm[z1m,…,zNm]Z^m[ z^m_1, …, z^m_N]Zm[z1m​,…,zNm​]上标 mmm 表示从动量教师编码器提取的特征我们计算从特征向量到原型的最优成本映射。我们将这种映射表示为使用最优传输[1, 6]获得的运输计划 TTT。在不损失一般性的情况下我们将 zzz 表示为图像或文本的投影特征并优化以下目标 Lotmin⁡T∈∏(u,v)∑i1N∑j1KTij⋅d(zim,cj)min⁡T∈∏(u,v)⟨T,D⟩(1)L_{ot} \displaystyle\min_{T \in \prod(u,v)}\sum_{i1}^N\sum_{j1}^KT_{ij}·d(z_i^m, c_j) \min_{T \in \prod(u, v)} ⟨T,D⟩\kern10em(1) Lot​T∈∏(u,v)min​i1∑N​j1∑K​Tij​⋅d(zim​,cj​)T∈∏(u,v)min​⟨T,D⟩(1) 其中∏(u,v)T∈RN∗K∣T1K1N1N,TT1N1K1K\prod(u, v){T \in R_^{N*K} | T1_K\dfrac{1}{N}1_N, T^T1_N\dfrac{1} {K}1_K}∏(u,v)T∈RN∗K​∣T1K​N1​1N​,TT1N​K1​1K​1N1_N1N​ 表示 NNN 维全一向量。DDD 是由 Dijd(zim,cj)(d(⋅⋅)1−cos(⋅⋅))D_{ij}d(z_i^m, c_j) (d(··)1-cos(··))Dij​d(zim​,cj​)(d(⋅⋅)1−cos(⋅⋅)) 和 ⟨T,D⟩Tr(TTD)⟨T, D⟩Tr(T^TD)⟨T,D⟩Tr(TTD) 给出的成本矩阵cost matrix D表示 Frobenius 点积。我们在算法1 中使用 TgT_gTg​ 和 TfT_fTf​ 作为图像和文本的最优传输计划1−I2P1-I2P1−I2P 对应于图像模态的成本矩阵Dcost matrix D。文本也是如此。 为了求解最优传输计划我们采用了 算法2 中所示的迭代算法。它以归一化特征矩阵ZZZ、码本codebookCCC为输入并输出最优传输计划 TTT。在内部该算法试图最小化最优传输OT距离优化为基于得分 T[i,:]T[i, :]T[i,:]TTT的第 iii 行为每个 ziz_izi​ 选择相似的cj,j∈[1,...,K]c_j, j \in [1, ... , K]cj​,j∈[1,...,K]。换句话说TTT 可以被视为原型和特征之间的距离度量(distance metric)。当求解时OTOTOT 产生最多包含(2r−1)(2r−1)(2r−1)rmax(N,K)rmax(N, K)rmax(N,K))个非零元素的稀疏解 T∗T*T∗从而产生稳健且有意义的对齐[10]。 在我们将要公式化的 codebook 损失中TTT 将被用作地面实况信号以指导特征到原型的对齐。我们使用交叉熵损失并采用师生蒸馏方法来构建用于优化 codebook 和特征编码器的损失 Lt2p(Zt,C,Ti2p)H(Pt2p,Ti2p),Li2p(Zv,C,Tt2p)H(Pi2p,Tt2p),L_{t2p}(Z_t, C, T_{i2p})H(P_{t2p}, T_{i2p}), L_{i2p}(Z_v, C, T_{t2p})H(P_{i2p}, T_{t2p}), Lt2p​(Zt​,C,Ti2p​)H(Pt2p​,Ti2p​),Li2p​(Zv​,C,Tt2p​)H(Pi2p​,Tt2p​), Pt2pSoftMax(ZtC/Υ),Pi2pSoftMax(ZvC/Υ)(2)P_{t2p}SoftMax(Z_tC/ \Upsilon ), P_{i2p}SoftMax(Z_vC/ \Upsilon )\kern15em (2) Pt2p​SoftMax(Zt​C/Υ),Pi2p​SoftMax(Zv​C/Υ)(2) 其中 PPP 是用来自学生编码器的特征计算的预测度量(predicted metric)而 TTT 是用来自教师编码器的特征使用 算法2 计算的。原因是教师编码器是通过指数移动平均(exponential moving average)来更新的这有助于避免 codebook 学习中的突然变化。 我们还添加了一个正则化项 LotL_{ot}Lot​。多模态 codebook 学习的总体损失如下 LcodeLot(Zvm,C)Lot(Ztm,C)Lt2p(Zt,C,Tt2p)Li2p(Zv,C,Ti2p)(3)L_{code} L_{ot} (Z_v^m, C) L_{ot} (Z_t^m, C) L_{t2p} (Z_t, C, T_{t2p}) L_{i2p} (Z_v, C, T_{i2p})\kern10em(3) Lcode​Lot​(Zvm​,C)Lot​(Ztm​,C)Lt2p​(Zt​,C,Tt2p​)Li2p​(Zv​,C,Ti2p​)(3) 如图3所示codebook 充当了图像和文本模态之间的桥梁因为文本到原型的损失Lt2pL_{t2p}Lt2p​或图像到原型的损失Li2pL_{i2p}Li2p​都是来自两种模态的链特征。例如文本到原型损失链图像原型运输计划Image-Prototype Transport Plan和文本原型相似性Text-Prototype Similarity反之亦然。更重要的是学习 codebook 允许在原型级别上对模态之间的特征进行对比即特征分布匹配feature distribution matching。在计算运输计划transport plan时我们使用教师特征因为它们提供了更稳定的监督信号来指导学生的学习。计算出的损失将被反向传播backpropagated用以更新 codebook 和学生编码器。 3.2 师生蒸馏学习 这种损失是为了对齐两个单峰unimodal编码器的特征而设计的这是受 SSL 学习最近成功的启发[5, 18]。我们的动机是图像和文本可以被视为同一实体的两种“观点”我们将采用师生蒸馏范式来对齐它们。由于直接来自单峰编码器unimodal encoders的原始特征在不同的特征空间中我们学习了图像和文本学生特征的维数为 256zv∈R256z_v \in R^{256}zv​∈R256zt∈R256z_t \in R^{256}zt​∈R256 的联合嵌入空间joint embeddings space。根据[18, 25]我们将来自教师编码器 zvm∈R256z^m_v \in R^{256}zvm​∈R256ztm∈R256z^m_t \in R^{256}ztm​∈R256 的特征分别存储在图像和文本的存储器队列 QvQ_vQv​QtQ_tQt​ 中。 对于一对图像和文本我们可以计算跨模态相似性和模态内相似性如下所示 pt2i(T)expztzvmTΥ/∑zvm′∈Qvexpztzvm′TΥ(4)p_{t2i} (T) exp \displaystyle \dfrac{ z_t z_v^{mT} }{ \Upsilon } / \displaystyle \sum_{ z_v^{m} \in Q_v } exp \dfrac{ z_t z_v^{mT} }{\Upsilon} \kern10em(4) pt2i​(T)expΥzt​zvmT​​/zvm′​∈Qv​∑​expΥzt​zvm′T​​(4) pi2t(I)expzvztmTΥ/∑zvm′∈Qtexpzvztm′TΥ(4)p_{i2t}(I) exp \displaystyle \dfrac{ z_v z_t^{mT} } { \Upsilon } / \displaystyle \sum_{ z_v^{m} \in Q_t } exp \dfrac{ z_v z_t^{mT} }{\Upsilon} \kern10em(4) pi2t​(I)expΥzv​ztmT​​/zvm′​∈Qt​∑​expΥzv​ztm′T​​(4) pi2i(I)expzvzvmTΥ/∑zvm′∈Qvexpzvzvm′TΥ(4)p_{i2i}(I) exp \displaystyle \dfrac{ z_v z_v^{mT} } { \Upsilon } / \displaystyle \sum_{ z_v^{m} \in Q_v } exp \dfrac{ z_v z_v^{mT} }{\Upsilon} \kern10em(4) pi2i​(I)expΥzv​zvmT​​/zvm′​∈Qv​∑​expΥzv​zvm′T​​(4) pt2t(T)expztztmTΥ/∑ztm′∈Qtexpztztm′TΥ(4)p_{t2t}(T) exp \displaystyle \dfrac{ z_t z_t^{mT} } { \Upsilon } / \displaystyle \sum_{ z_t^{m} \in Q_t } exp \dfrac{ z_t z_t^{mT} }{\Upsilon} \kern10em(4) pt2t​(T)expΥzt​ztmT​​/ztm′​∈Qt​∑​expΥzt​ztm′T​​(4) 其中用于估计 pt2i(T)p_{t2i}(T)pt2i​(T) 的伪图像负片从图像队列 QvQ_vQv​ 中采样并且类似地用于 pi2t(I)p_{i2t}(I)pi2t​(I) 。除了[25]我们还考虑了单峰内对齐。直观地说增强单峰特征表示为跨模态对齐奠定了更好的基础。 为了进一步平滑学习过程我们使用动量老师的特征来提供软蒸馏目标yi2t,yt2i,yt2t,yi2iy_{i2t}, y_{t2i}, y_{t2t}, y_{i2i}yi2t​,yt2i​,yt2t​,yi2i​详细信息请参阅算法1。模态内/跨模态对齐的损失定义为 LicaEI,T∽pdata[H(pt2t,yt2t)H(pi2i,yi2i)H(pt2i,yt2i)H(pi2t,yi2t)](5)L_{ica} E_{ I, T \backsim p_{data} }[ H( p_{t2t}, y_{t2t} ) H( p_{i2i}, y_{i2i} ) H( p_{t2i}, y_{t2i} ) H( p_{i2t}, y_{i2t} )] \kern10em(5) Lica​EI,T∽pdata​​[H(pt2t​,yt2t​)H(pi2i​,yi2i​)H(pt2i​,yt2i​)H(pi2t​,yi2t​)](5) 其中 H 是交叉熵cross entropy。这个目标也可以被视为来自同一模态的教师编码器和学生编码器之间的知识蒸馏即H(pt2t,yt2t)H( p_{t2t}, y_{t2t} )H(pt2t​,yt2t​) 和 H(pi2i,yi2i)H( p_{i2i}, y_{i2i} )H(pi2i​,yi2i​)以及来自不同模态的教师编码器和学生编码器之间的知识蒸馏即 H(pt2i,yt2i)H( p_{t2i}, y_{t2i})H(pt2i​,yt2i​) 和 H(pi2t,yi2t)H( p_{i2t}, y_{i2t} )H(pi2t​,yi2t​) 。教师编码器的参数是学生的指数移动平均值与梯度更新无关。我们采用动量更新类似于[18]的更新教师编码器 ftαft(1−α)fs,gtαgt(1−α)gs(6)f_t \alpha f_t ( 1 - \alpha ) f_s, g_t \alpha g_t ( 1 - \alpha ) g_s \kern15em(6) ft​αft​(1−α)fs​,gt​αgt​(1−α)gs​(6) α\alphaα 是动量参数。在实践中我们设置 α0.995\alpha 0.995α0.995 以便顺利更新教师编码器。 3.3 自监督的预训练 在本节中我们将首先介绍多模态训练框架的两个常用目标i掩蔽语言建模损失 MLM 和ii多模式编码器上的图像-文本匹配 ITM 。然后我们讨论了如何集成 codebook 和师生蒸馏组件。我们将学生网络提取的图像和文本特征分别表示为 vcls,v1,...,vm{ v_{cls}, v_1, ... ,v_m }vcls​,v1​,...,vm​ 和 tcls,t1,...,tn{ t_{cls}, t_1, ..., t_n }tcls​,t1​,...,tn​ 具体来说vclsv_{cls}vcls​ 是图像 [CLS] 令牌v1,...,vm{v_1, ..., v_m}v1​,...,vm​ 是图像补丁嵌入image patch embeddings。类似地tclst_clstc​ls 表示文本 [CLS] 标记t1,...,tn{t_1, ..., t_n}t1​,...,tn​是单词嵌入word embeddings。 3.3.1 图像-文字匹配Image-Text Matching损失 为了融合视觉和语言表示我们采用了在现代 VL 框架中广泛使用的 ITM 。给定任意一对图像和文本ITM 预测它们是否对齐正对或不对齐负对。这个过程可以被公式化为一个二元分类问题。 具体地来自融合编码器的[CLS]令牌被用作图像-文本对的联合表示。ITM 头是一个全连接层用于预测匹配概率 pitmp_{itm}pitm​ 。我们假设从预训练数据集采样的每个图像-文本对 (Ii,Ti)( I_i, T_i )(Ii​,Ti​) 都是一个正示例并通过以下策略构建负示例对于批次中的每个图像 IiI_iIi​ 我们基于对比相似性分布从同一批次中采样一个否定文本 TjT_jTj​。因此与此图像更相似的文本将有更高的机会进行采样。类似地将为每个文本 TiT_iTi​ 采样一个硬负图像hard negative image。我们将 yitmy_{itm}yitm​ 表示为指示图像-文本对是正的还是负的基本事实标签。 LitmEI,T∼pdataH(pitm,yitm)(7)L_{itm} E_{I, T\sim p_{data} }H( p_{itm}, y_{itm} )\kern10em (7) Litm​EI,T∼pdata​​H(pitm​,yitm​)(7) 其中HHH 是交叉熵算子。 3.3.2 掩蔽语言建模MLM损失 我们遵循 BERT [11]关于 MLM 损失的设计该设计旨在预测屏蔽文本标记 ymlmy_{mlm}ymlm​ 的基本事实标签。具体来说我们随机屏蔽掉 15% 的输入文本令牌这些屏蔽的令牌被替换为特殊令牌 [mask] 。与 BERT 不同我们的 MLM 损失取决于周围的文本标记和图像表示。假设预测的令牌概率是 pmlmp_{mlm}pmlm​我们如下构建损失目标 LmlmEI,T^∼pdataH(pmlm,ymlm)(8)L_{mlm} E_{I, \hat{T} \sim p_{data} } H( p_{mlm}, y_{mlm} ) \kern15em(8) Lmlm​EI,T^∼pdata​​H(pmlm​,ymlm​)(8) 其中T^\hat{T}T^ 是屏蔽后的文本标记序列。 3.4 总结 我们以端到端的方式同时优化框架内的 codebook 和学生编码器采用以下前几节中讨论的损失 LfinalLmlmLitmLicaLcode(9)L_{final} L_{mlm} L_{itm} L_{ica} L_{code} \kern15em(9) Lfinal​Lmlm​Litm​Lica​Lcode​(9) 其中 MLM 和 ITM 损失已被广泛应用于许多 VL 方法特别是那些“早期融合”框架。ica 损失是“后期融合” VL 框架的主要目标函数。CODIS 结合了“早期融合”和“后期融合”方法的优点通过明确学习融合中的对齐。 第 3.2 节中描述的内部交叉对齐LicaL_{ica}Lica​损失可以被视为实例对实例对齐损失类似于[25]中的损失。不同之处在于我们同时考虑了模态内和模态间的对齐。我们假设更强的单峰表示可以为跨模态表示奠定坚实的基础。第 4.4 节提供了经验证据。第 3.1 节中设计的码本损失LcodeL_{code}Lcode​测量传输计划和相似性矩阵之间的距离。它在原型级别对比特征可以解释为距离度量匹配[3, 6]。将这两者结合起来有助于避免原型崩溃prototype collapsing问题因为在线原型集群online prototype clustering需要仔细调整[4]。最后帧内交叉对齐损失和 codebook 损失的监督信号都需要动量教师的特征我们采用了师生蒸馏方法。这可以被视为在 VL 框架下将单一模式 SSL 推广到多模态设置中。 4.实验 图像文字对检索ITR 包括两个任务1图像作为查询和检索文本TR2 文本作为查询和检索图像IR。预训练模型在 MSCOCO [29]和 Flickr30K [35]上进行评估。对于零样本设置预训练模型直接根据测试数据进行评估无需进一步训练。特别是对于 Flickr30K 上的零样本检索我们遵循[25]中提出的程序使用 MSCOCO 微调模型在Flickr 上评估零样本。对于微调设置预训练的模型在训练数据上进行微调并在验证/测试数据上进行评估。 视觉问答VQA[15] 视觉问答预测给定图像和问题的答案这需要对视觉、语言和上下文的理解。我们将此任务视为一个生成问题如[25]所示通过微调答案解码器从候选者中生成答案。 视觉推理NLVR2NLVR^2NLVR2数据集[42]包含 107292 个人类书写的英语句子与网络照片的例子。任务是确定一对照片的自然语言说明是否属实。我们将我们的模型扩展为[25]以获取一个文本和两个图像作为输入。 视觉隐含SNLI_VE[46]预测给定的图像是否包含给定的文本在我们的框架中这被公式化为三方分类问题隐含、中性或矛盾。 4.1 实现细节 我们采用 ViT-B/16 [12]作为我们的视觉编码器。文本编码器使用具有12层的 BERTbase。我们将队列大小设置为 65336 码本大小设置为 4000 移动平均值 α0.995。对于预训练阶段模型被训练了 30 个时期批量大小为 512 。我们使用重量衰减为 0.02 的 mini-batch AdamW 优化器[30]。学习率初始化为 1e−5并在 1000 次迭代后预热至 1e−4 。然后用余弦衰减策略将其降低到 1e−5 。我们所有的实验都是在8个 NVIDIA A100 GPU 上进行的。在应用 RandAugment [9]之前图像输入被随机裁剪并调整大小为 256×256。在微调过程中图像分辨率提高到 384×384以便与现有方法进行公平比较[25]。 4.2 图像文本检索的评价 对于图像-文本检索任务我们按照[8, 25, 28]中的设置进行了两种不同的场景评估“zero-shot” 检索任务和 “after-finetuning” 检索任务。我们与早期融合方法如[8, 22, 28]和后期融合方法如[21, 38]进行了比较。 ALBEF [25]是一种混合方法它还执行特征对齐和融合。表1 和 表2 中的结果显示了我们的方法相对于现有技术的一致改进。 “Zero-shot” 如表1所示对于图像和文本检索任务CODIS 在两个数据集上都优于现有基线具有明显的优势尤其是在R1. 与性能最佳的早期融合方法[8]相比我们在以下方面获得了 11.0%/13.5% TR/IR 的裕度 R1 在 Flickr30K上。与最高后期融合方法[21]相比 R1 在 MSCOCO 上并且在 R1 在 Flickr30K 上尽管 ALIGN [21]在训练中使用了 1.8B 的数据比我们的模型多大约360倍的图像-文本对。我们的方法也优于ALBEF 4M [25]净利润率为 2.9%/3.8% R1 对于 MSCOCO 上的TR/IR 和 1.2%/2.9% R1对于 Flickr30K 上的 TR/IR 揭示了我们的模型可以进一步受益于 codebook 表示学习。 “After finetuning”这项任务展示了通过迁移学习进行 VL 预训练的能力。对于 Flickr30K 等小型数据集随着模型的收敛性能差距往往会减小。然而我们的方法仍然在大多数指标中取得了最佳结果R1特别是在 MSCOCO 上。与性能最接近的方法 ALBEF [25]相比CODIS 在 R1 关于 MSCOCO 为 CODIS 对迁移学习的有效性提供了证据。 4.3 VQANLVR 和 VE 评价 根据之前的方法[8, 25]我们进一步报道了 CODIS 在各种其他视觉语言任务如 VQA、NLVR 和 VE 上的性能。值得注意的是由于[8]额外使用了域外数据[28]利用了额外的对象标签[14]增加了对抗性数据因此一些结果无法直接比较。尽管如此在 表3 中我们观察到我们的方法在不同数据集的所有任务上都有持续的改进。 4.4 消融实验 在本节中我们对我们的方法在不同的 CODIS 变体下的性能进行了消融研究。为了清楚地了解每个组件的影响我们在零样本设置下进行比较而不进行任何微调。请注意此处 Flickr30K 的设置与第 4.2 节中的设置不同因为后者基于 MSCOCO5K上的微调模型报告数字。有关更多详细信息请参阅[8]。 结果汇总在 表5 中。通过消除码本的影响我们提供了两个在实例级别执行对齐的基线即a仅跨模态对齐和b帧内交叉对齐。前者相当于ALBEF[25]因为两者都只考虑跨模态的一致性。所有人的表现都在持续提高 R1 TR/IR 指标1.26%/0.42% R1 对于 MSCOCO 上的 TR/IR 和 0.9%/1.52% R1 对于 Flickr 上的 TR/IR 通过涉及模态内对齐即增强单峰表示。 当考虑 codebook 时我们观察到两个基线的一致改进。在这一类型中我们提供了 CODIS 设计的三种变体。第 1 行和第 3 行比较了模态内对齐的效果而第 2 行和第 3 行研究了使用学生和教师特征来计算 codebook 损失的效果。本实验还通过将教师-学生蒸馏与 codebook 表示学习相结合来支持有效性。结合这两个贡献CODIS 在年以 2.5%/2.0% 的明显优势改善了第一个基线 R1 对于MSCOCO 上的 TR/IR 和 1.8%/3.22% 的绝对值 R1 用于 Flickr 上的 TR/IR。 为了进一步研究我们的方法的效率我们在 表4 中的零样本设置下使用 MSCOCO 序列分裂进行预处理时在 MSCOCO 测试中提供了不同 codebook 损失重量和 codebook 大小的消融。 4.5 交叉注意力可视化 我们使用 Grad-CAM [39]可视化交叉注意力图以提供 CODIS 的定性评估。图4 显示CODIS 能够通过关注有意义的对象和位置将语言与“感兴趣的区域”相关联从而在视觉上反映我们的模型在多模式对齐中的质量。例如在第一排当给出“人”这个词时模特会照顾所有的男人而对于“技巧”和“采取”等词模特表现得出奇地好只“关注”相关的人。在第二个例子中我们选择了一个存在多个对应关系的场景例如树木和晴天。该模型似乎将更多的注意力分配给离相机最近的树木并可以区分树木和草地。有趣的是当单词从“长颈鹿”变为“行走”时模型将“注意力”从长颈鹿的上半身转移到脚上这表明了模型理解图像和文本之间语义关系的能力。 5. 总结和未来工作 视觉和语言预训练正吸引着计算机视觉界越来越多的关注并在各种视觉语言下游任务中展现出巨大的潜力。VL 成功的关键之一是改进多模态对齐。在本文中我们提出了使用表示 codebook 的多模态对齐该表示 codebook 充当模态之间的媒介。我们还通过将师生蒸馏学习推广到 VL 框架下的多模态环境将自我监督学习和 VL 预训练联系起来。我们的工作是朝着更有原则的多式联运方向迈出的一步。我们希望在这个方向上激励更多的作品。
http://www.dnsts.com.cn/news/195238.html

相关文章:

  • 室内设计网站平面案例多商户系统
  • 南京专门做网站河北网站建设品牌大全
  • 网页设计好看的网站中交建设招标有限公司网站
  • 婚庆公司网站建设得多少钱外网访问内网wordpress
  • 娄底手机网站制作天水建设网站
  • 网站开发代理江苏the7 wordpress theme
  • 网站源码下载 支付二维码怎么弄百度云盘做网站空间
  • 怎么自己做APP网站江苏省句容建设局网站
  • 贵州住房和城乡建设局网站番禺建设网站企业
  • 旅游网站建设合同网站建设与发布需要什么
  • 微信导航网站模板网站要素
  • 青海建设兵团青岛战友网站学生个人网页内容排版设计作品
  • 国外的哪个网站可以做跳转太原开发网站公司
  • 公司做网站域名的好处昆明网站建设多少钱
  • 南宁设计网站建设大数据营销软件
  • 厦门三五互联可以做网站吗设计公司logo免费设计生成器
  • 网站备案个人备案公司网站网站统计源码下载
  • 网站备案收费标准网站建设和网络营销区别
  • 江西哪里有做电商网站的公司xin网站ftp上传
  • 商务网站建设实训总结wordpress主题友情链接设置
  • 高端网站建设的方案佛山 建站公司
  • 大连哪里有手机自适应网站建设wordpress如何登录
  • 创建学校网站南通网站外包
  • 做网站每一步的是什么软件外包企业排名
  • 网站方案讲解技巧wordpress 自定义page
  • 做电影网站用什么空间罗定市住房和城乡建设局网站
  • 帮别人设计网站xx企业网站建设方案书
  • 怎样免费做一个网站公众号怎么开通收费功能
  • 网站建设英语翻译资料大连宏帝建设网站
  • 网站建设数据技术创意设计pc