当前位置: 首页 > news >正文

王欣网站建设与维护做网站开发能挣钱

王欣网站建设与维护,做网站开发能挣钱,网站建设价格裙,深圳低价建站abstract 多模态情感分析#xff08;MSA#xff09;利用互补的多模态特征来预测情感极性#xff0c;主要涉及语言、视觉和音频三种模态。现有的多模态融合方法主要考虑不同模态的互补性#xff0c;而忽略了模态之间的冲突所导致的歧义#xff08;即文本模态预测积极情绪MSA利用互补的多模态特征来预测情感极性主要涉及语言、视觉和音频三种模态。现有的多模态融合方法主要考虑不同模态的互补性而忽略了模态之间的冲突所导致的歧义即文本模态预测积极情绪视觉模态预测消极情绪。为了减少这些冲突我们开发了一种新的多模态歧义学习框架即RMA通过知识注入解决多模态歧义和用于多模态情感分析的歧义学习。 具体来说我们引入和过滤外部知识来增强跨模态情感极性预测的一致性。在多模态融合过程中我们明确测量歧义动态调整从属模态和主导模态之间的影响同时考虑多模态的互补性和冲突。实验证明了我们提出的模型在三个公共多模态情感分析数据集CMU-MOSI、CMU-MOSEI和MELD上的优势。 intro 生物系统通过同时发生的多模态信号来感知世界。语言、视觉和语音是日常生活中最常见的三种多模态信号。与生物系统类似多模态情感分析MSA处理多源信号Ou等同时。MSA是情感分析领域的一个基本但重要的问题引起了研究人员Zadeh等人2017的极大关注Tsai et al . (2019a)Rahman等人(2020);Yu et al . (2021)Zhao et al . (2022)Yang等(2023)。现有的MSA方法可分为多模态表示中心方法和多模态融合中心方法。前一种模型精确和细粒度表示以帮助模型预测情绪极性。后者侧重于通过跨模态交互学习跨模态语义关联并通过跨模态信息传递增强单模态表示。 凡事都有两面性。虽然多模态融合方法通过利用互补的多模态数据有效地提高了多模态情感分析模型的性能但它们也可能因冲突的多模态数据而误导情绪极性预测。数据收集或特征提取模型可能会产生冲突的多模态数据导致不同的模态预测不一致的情绪极性。尽管在MSA领域取得了实质性进展但冲突多模态数据引起的模糊性Chen等2022b误导了Du等2021的预测结果这仍然是一项具有挑战性的任务Fan等2023Zhang等2023a。 多模态歧义是指模态之间的冲突如语篇模态预测积极情绪而视觉模态预测消极情绪。单峰性能的差距是由于提取单峰特征的预训练模型和在多峰信号中使用的收集方法的差异。表现较优的情态称为主导情态表现较差的情态称为从属情态。图1说明了多模态歧义下的决策过程。具有冲突的多模态数据即主导和从属模态的联合学习可能导致歧义随后误导模型决策。 具体来说我们利用跨模态融合模型Tsai等人2019a和单模态变压器Vaswani等人2017来获得多模态和单模态预测。文本模态与视觉、听觉模态的预测结果不一致。文本模态预测值为0.23视觉和听觉模态预测值分别为-0.24和-1.01。多模态预测值为-0.13跨模态相互作用导致位移值为-0.36。 具有跨模态相互作用的多模态预测会产生错误的预测。我们总结如下 i)与文本情态主导情态相比视觉和听觉情态从属情态的低表现可能导致冲突。 ii)仅考虑多模态互补性的多模态融合方法可能在冲突场景中产生错误的预测。 因此有必要研究 i)如何为每种模态生成一致的情绪极性预测以减轻冲突的情况。 ii)如何动态调整互补和冲突的多模态数据的跨模态交互生成正确的情感极性预测。 为了回答上述研究问题我们提出了一种新的多模态歧义学习框架即RMA通过知识注入解决多模态歧义和用于多模态情感分析的歧义学习。RMA通过引入和过滤领域知识来提高单个模态的性能这保证了每个模态尽可能地产生一致的情感极性预测。RMA明确测量模态之间的歧义并动态调整冲突情景中从属模态对主导模态的影响。 具体而言我们使用外部多模态情感分析数据集预训练三个领域通用编码器以提供外部领域通用知识。 我们使用正交损失来确保领域通用和领域特定编码器学习模态的两个不同方面。为了避免过分强调领域通用知识我们设计了一个跨知识编码器来引入和过滤领域通用知识。 为了准确测量跨模态歧义我们设计了一个以语言为导向的跨模态歧义学习模块该模块明确地测量了主模态和混合模态之间的歧义。基于冲突场景下的模糊值动态调整混合模态对主导模态的影响。多模态融合方法通常需要跨模态交互技术来增强模态。 例如在利用视觉情态来强化文本情态时需要将信息从视觉情态转移到文本情态。 我们的贡献如下 •我们为每个模态引入和过滤外部域通用知识以确保每个模态产生一致的预测结果。 •我们设计了一个语言引导的跨模态歧义学习模块在多模态融合之前明确测量主导模态和混合模态之间的歧义。该模块根据歧义值动态控制从属情态对主导情态的影响同时考虑多模态互补和多模态融合中的歧义。 •我们进行了大量的实验来证明以下方法的有效性i)领域通用知识注入的有效性它可以引入和过滤领域特定知识以增强模式。ii)语言引导歧义学习模块的有效性该模块可以同时考虑多模态互补和多模态融合过程中的冲突。 •与多模态大型语言模型相比我们提出的模型在公开可用的多模态情感分析数据集CMU-MOSI、MELD、CMU-MOSEI和CMU-MOSEI上仍然取得了出色的性能 related work 多模态情感分析 根据多模态情感分析的方法我们将现有的研究大致分为两类一类是通过损失反向传播进行多模态融合早期的融合方法学习一个联合嵌入。TFM Zadeh et al .2017和LMF。刘等人2018从张量的角度设计了融合方法。MFN Zadeh等2018a提出了一种记忆融合网络该网络学习特定视图交互和跨视图交互然后通过多视图门通记忆随时间汇总信息。后期的融合方法是设计动态交互模块来捕获跨模态信息。RAVEN Wang等2019提出了一种循环参与变异嵌入网络。RAVEN利用非语言信息通过注意机制对词嵌入进调整。MAG Rahman等2020和MAG Zhao等2022在Bert骨干网中集成了多模态信息。MuLT Tsai等人2019a和PMR Lv等人2021采用多模态变压器捕捉跨模态相互作用。MTAG Yang等人2021提出了模态时间关注来分析多模态序列数据。Zhang等2023b利用文本模态从非文本模态中过滤信息增强了文本模态同时丢弃了非文本模态信息。Yu等人2023引入了一个预训练的光源适配器以纳入额外的知识。后一个分支通过利用特征空间中的几何操作来定位互补的多模态信息然后融合最终的多模态情感分析表示。蔡国强等2019b提出了一种多模态分解模型该模型通过生成特征学习特定于模态的信息。ICCN Sun等2020提出了交互典型相关网络。ICCN通过深度典型相关分析DCCA学习多模态表示。SelfMM Yu等2021通过自监督学习策略获得独立单模监督。M3SA Zeng等人2021确定了模态的贡献并减少了噪声信息的影响。汉等人2021b提出了一个名为MultiModal InfoMax的框架该框架最大限度地提高了成对模态之间的互信息。BBFN Han等2021a提出了一种端到端双双峰融合网络对两两模态表示进行融合和分离。MISA Hazarika等人2020通过不同的损失函数学习模态特定和模态不变信息。Yang等人2022结合表征学习方法和跨模态交互方法来提高模型性能。DMD Li等人2023将MISA扩展到设计同质和异质蒸馏以优化这些表示。ConFEDE Yang等人2023a使用对比学习对基于MISA的细粒度解耦表示进行建模 知识注入 在自然语言处理领域预训练的语言模型通过吸收外部知识来提高性能。这些方法主要涉及引入外部知识来加强表征i等人2021Fu et al . (2023)Chen et al . (2023)Onoe等人2023Hu et al2023。这些方法的主要策略是设计一个轻量级的预训练适配器用于学习外部知识并随后将该适配器嵌入到模型中以增强表示u等人2023。例如Wang等人2020为Roberta设计了不同的适配器从多个领域引入外部知识以提高性能Yu等人2023直接为每个模态引入外部知识增强了原始表示。在本文中我们将外部知识概念化为领域通用信息而将原始数据集中的知识视为领域特定信息。领域通用知识包括能够增强领域特定知识的信息。我们引入领域知识并选择性地过滤增强其相关性的组件。 方法 在本节中我们首先描述了多模态情感分析的任务制定 图2展示了提出的框架包括两个部分知识注入模态内强化和语言引导的跨模态歧义学习。 通用、特定知识注入 通过领域通用和领域特定的编码器获取每个模态的领域通用和领域特定知识的细节。 为了改进单模态表示我们为每个模态引入了来自外部多模态情感分析数据集的领域一般知识作为补充信息。图3说明了我们为每种模式学习领域通用知识和领域特定知识的方法。我们设计领域通用编码器和特定领域的编码器参数为每个模态。前者学习到领域通用知识后者学习到领域特定知识 Q领域通用和领域特定体现在哪里 A来源不同学习方式也不同。 领域通用知识注入目的是通过外部的多模态情感分析数据集为每种模态引入通用知识。编码器是使用领域通用编码器fg来学习通用知识xg这个编码器在训练初期已经被预训练并且在训练过程中保持不变。 领域特定知识注入目的是同时学习每个模态的特定知识以反映特定领域的独特性。编码器是特定编码器fs学习特定知识xs这些编码器在模型训练时通过梯度下降法更新参数以适应具体的应用领域。 在表示样本的特点提取由{、、}参数。继之前的工作Tsai等人2019a之后知识编码器采用1层变压器Vaswani等人2017来学习模态的顺序信息。特定领域的知识编码器{}在训练过程中通过梯度下降进行更新。领域通用知识编码器{}使用外部多模态情感分析数据集进行预训练其参数在训练阶段保持冻结。通用领域知识{、}和特定领域的知识{、},来自不同的形式,代表了两个截然不同的部分信息。为了加强它们的差异我们引入了正交损失Hazarika et al2020来约束域通用和特定领域知识 其中‖*‖2为2范数。由于领域通用知识编码器的参数是固定的这种正交损失保证了领域专用编码器专注于学习领域专用知识 交叉知识注入 为了充分利用领域通用知识我们引入了交叉知识注入编码器CKIE模块。图4说明了我们过滤引入的领域特定知识和增强单个模式的方法。它利用领域通用表示来加强领域特定表示从而提高单模态的性能。 其中表示强化的单峰表示。CKIE利用领域通用知识和领域特定知识之间的关注权重来选择领域通用知识增强单一性。 其中表示强化的单模表示。符号FFN和LN分别表示前馈层和LayerNorm层。 语言引导下的跨模态歧义学习 我们的目标是测量从属情态向主导情态传递补充信息时的歧义。跨模态序列包括潜在语义相关性Tsai等2019aLv等人2021通过跨模态交互对齐这些语义信息可以更好地利用互补的多模态数据。具体来说我们利用主导模态向从属模态查询信息并将查询到的信息表示为混合模态。首先在主导模态的指导下计算主从模态之间的跨模态对齐分数CAS。 其中下标α和β分别表示主导模式和从属模式。分数α→β分别表示文本模态与视觉模态和音频模态的对齐分数。CAS计算跨模态标记之间的相似性以对齐异步跨模态序列。 根据跨模态对齐分数的定义我们计算了基于跨模态对齐分数的混合模态表示。 其中表示主导模态和从属模态之间对齐的混合模态表示。当主导模态和从属模态一致时混合模态可以强化主导模态Lv等人2021当主导模态和从属模态之间存在歧义时混合模态也可能引入额外的噪声Zhang等人2023b。 Q他究竟是如何解决当主导模态和从属模态之间存在歧义时混合模态也可能引入额外的噪声问题的 A引入一个称作“混合模态表示”的概念来动态调整信息流。 混合模态表示的计算使用交叉模态对齐分数Cross-modal Alignment Score, CAS来计算不同模态之间的对齐。这一分数通过比较不同模态下的特征表示并通过softmax函数进行归一化以衡量不同模态之间的相似度。 语言引导的歧义度量通过变分自编码器Variational Autoencoder, VAE来估计加强文本模态、混合模态以及先验分布之间的后验分布。通过这种方式模型可以评估和量化主导模态和从属模态之间的歧义。 动态调整权重根据歧义度量的结果动态调整混合模态表示与加强文本模态之间的权重。这样做的目的是在保持信息丰富性的同时减少由于模态间歧义造成的误导性噪声。 输出的计算将调整后的混合模态表示与加强文本模态结合通过多层感知机Multi-layer Perceptron, MLP进行处理输出最终的预测结果。 为了缓解这一问题我们基于语言引导的跨模态歧义度量动态调整混合模态表示的权重。具体来说我们使用变分自编码器来估计强化文本模态、混合模态和的后验分布。我们假设先验分布服从高斯分布。具体而言对于视觉文本和听觉文本的混合模态表示变分后验分布的形成 Q变分自编码器是什么具体怎么做的 A变分自编码器是一种深度学习模型用于学习输入数据的潜在表示。它结合了深度学习和贝叶斯推断特别适用于处理复杂的数据分布和生成任务。 1. 模型结构 编码器Encoder将输入数据映射到一个潜在空间不同于传统的自编码器直接输出潜在表示VAE的编码器输出的是概率分布的参数通常是每个潜在变量的均值μ和方差σ²。解码器Decoder从潜在空间采样并重构输入数据试图复原输入数据从而确保潜在空间有意义。 2. 后验分布和先验分布 VAE假设潜在变量遵循一定的先验分布通常为高斯分布。编码器输出的参数定义了条件概率分布即给定输入数据后潜在变量的分布后验分布。VAE通过训练过程调整编码器的参数使得后验分布尽可能接近先验分布。 3. KL散度 KL散度是一种衡量两个概率分布相似性的指标VAE利用它来评估后验分布与先验分布之间的差异。在跨模态学习中这可以用来度量不同模态表示的后验分布之间的差异。对于主导模态和从属模态可以计算两者的后验分布之间的KL散度这提供了一个量化模态之间歧义的方法。 4. 歧义的评估和量化 在多模态学习中通过计算主导模态的潜在表示与从属模态的潜在表示之间的KL散度可以量化两者的一致性或差异性。较高的KL散度表示两个模态的表示差异大即存在更多的歧义。通过这种方法可以动态调整模态之间的信息流例如在信息融合时减少歧义较大的模态的影响或者在模型训练中特别处理以减少这种歧义。 其中为变量编码器参数分别为、。同时,我们利用Kullback-Leibler(KL)散度分别估计分布区别,指示为。基于多模态数据的-th样本分集可以得到训练数据集的分布 其中表示混合模态表示和强化文本模态之间-sample的歧义度量。为了充分利用模糊的多模态数据我们基于明确的模糊度量在跨模态交互过程中动态调整从从属模态到主导模态的信息流。 Q这一节的公式完全不懂可以逐个讲解吗 A可公式11~公式22 公式11就是定义了一个跨模态对齐分数简单点说就是注意力得分。由注意力和softmax组成。 公式12~14具体讲解得分中的注意力部分定义了QKV 公式15softmax算出得分  公式16~17把得分赋值给 公式18 这些后验分布用于捕捉各个模态数据的潜在特征并为后续计算模态间的歧义提供基础。 公式19 公式20~2120示例21相似 公式22 这个公式基本上在说每个模态的贡献被其相应的歧义程度调节。歧义度量越高该模态对最终输出的贡献就越少这意味着如果某个模态与主模态假设为文本的一致性较低它对最终决策的影响就会减少。 优化目标 我们最终的优化目标由两个部分组成。首先我们使用交叉熵和均方误差MSE损失作为多模态情感分析的任务损失它们分别处理分类MELD和回归CMU-MOSI和CMU-MOSEI任务。 其次我们在领域通用编码器和领域特定编码器之间合并了一个正交约束损失用于学习相同模态的两个不同部分。 experiment dataset 我们在三个数据集(CMU-MOSI Zadeh等人2016、CMU-MOSEI Zadeh等人2018b和MELD Poria等人2018上评估了我们的模型。拆分规格如图5所示。 CMU-MOSI。CMU-MOSI数据集是由卡内基梅隆大学的研究团队为情感分析和情感识别创建的多模态数据集。 该数据集包括从YouTube提取的独白视频剪辑涵盖各种情感场景如电影评论演讲和采访。它由2199个观点视频片段组成每个视频片段都标注了[- 3,3]CMU-MOSEI范围内的情感分数。CMU-MOSEI数据集是CMU-MOSI数据集的扩展版本。它包含了来自1000位演讲者的3228个视频总共包含23453个句子。与CMU-MOSI数据集类似它涵盖了多个情感维度采用相同的注释标记方法 MELD。MELD数据集是一个情感对话数据集包含1433个对话片段和13708个来自电影和电视节目的话语。对话中的每句话都标有七种情绪中的一种愤怒、厌恶、悲伤、喜悦、中性、惊讶和恐惧。此外MELD数据集为每个话语提供情绪极性积极、消极和中性的注释 实现细节 我们使用PyTorch框架在NVIDIA V100 gpu上优化了我们的模型。我们选择Adam作为优化器将mini-batch大小设置为16学习率设置为8e-5 epoch设置为150。我们报告测试集上的性能对应于验证集上的最佳性能。为了标准化领域不可知和领域特定的特征我们使用相同的预训练模型来提取三个多模态情感分析数据集的特征。 继之前的工作Christ等人2023之后多模态特征提取利用预先训练的文本模型Bert和Electra Clark等人2020Kenton Toutanova (2019), visual (VggFace2) Cao et al2018和audio (Hubert) Hsu et al (2021) modes。领域不可知知识编码器和领域特定知识编码器都是单层Transformer编码器。文本、视觉和音频模式的特征维度分别为768、512和1024。超参数lambda设置为0.1。 此外我们使用了不同的预训练语言模型Kenton Toutanova (2019)Clark et al2020学习领域通用知识和领域特定知识。图8显示了我们的模型使用两种不同的预训练语言模型的性能 baseline 略 实验装置 继Tsai等人2019a之前的工作之后我们采用二元精度Acc-2、F1-score、平均绝对误差MAE和相关系数CC作为多模态情感分析回归任务的评价指标。将回归值转化为二值分类得到二值精度。我们使用3种分类负面、中性和正面的Precision、Recall和Macro-F1作为MELD的评价指标 对比实验 为了验证我们提出的RMA模型的有效性我们将其与传统的最先进基线和多模态大语言模型在多模态情感分析任务中进行了比较。传统的多模态情感分析方法侧重于探索多模态表示和融合模式即TFN、MFM、MulT、MTAG、PMR、MISA、MAG、MMIM、Self-MM、FDMER、CONKI、DMD、ConFEDE。大型语言模型利用给定的多模态输入和用户提示输出情感极性即ChatGPT、LLaMA、LaVIN、LLaVA、OpenFlamingo、MiniGPT4、InstructBLIP、BLIP2、Flan-T5XXL。性能比较结果如表1、2、3所示。通过分析这些表格我们可以得出以下结论 •与传统的多模态情感分析和多个大型语言模型的基线相比我们的模型显示出显著的改进。 •在外部知识方法的结合中我们的模型优于ConKI表明我们的模型有效地从领域一般知识中检索有价值的信息以强化个体模式。 •我们的模型优于基于跨模态相互作用的方法如MuLT、MAG和DMD这些方法平等地对待每种模态忽略了多模态歧义的实例。这一结果强调了明确学习从属和主导模式之间的歧义的重要性。 消融实验 为了深入了解其主要成分我们逐步进行消融研究。具体来说我们将我们提出的模型与三个不同的变体进行了比较分析1)w/o local去掉了语言引导的跨模态歧义学习模块2)不包括领域一般知识不含知识3) w/o消除了与领域特定知识和领域一般知识相关的正交损失。 表4报告了烧蚀实验结果。与我们的模型相比w/o local的性能精度在CMU-MOSEI和CMU-MOSI上分别下降了2.1%和1.3%这一结果表明了我们提出的语言引导的跨模态歧义学习模块的有效性因为它能够在歧义场景中用混合模态增强主导模态时减少额外的噪声。此外我们的模型与无DG相比实现了优势性能表明领域通用知识加强了领域特定表示以提高模型性能。此外当w/o被去除时模型的性能下降这表明正交损失限制了模型学习更精确的领域特定知识。总之我们提出的模型的性能超过了两个多模态情感分析数据集上的所有变量验证了每个组件的有效性和互补性。最后我们使用相同的预训练语言模型Kenton Toutanova2019将我们提出的模型与ConKI进行比较以提取文本特征。图8展示了比较结果。 结果表明我们的引入和过滤知识的有效性它没有过分强调领域通用知识 知识可视化 除了出色的性能外我们提出的模型的关键优势在于它能够通过结合外部领域一般知识来加强次要模式的性能。图6显示了每种模态的一般知识和特定领域知识其中我们使用t-SNE将一般知识和特定领域知识投影到2D空间中。从图6中我们可以观察到对于每个模态领域通用知识和领域特定知识都有一个明显的边界。这一结果表明领域通用知识和领域特定知识是情感相关信息的互补部分。 领域通用知识分析 为了验证3.1节中描述的领域通用知识的有效性我们进行了一系列实验探索通过领域通用知识增强每种模态的性能。图7说明了通过引入外部知识对单模态性能的改进。蓝色部分表示仅使用领域特定知识的情感极性预测而橙色部分表示通过结合领域一般知识对情感极性预测进行改进。 从图7中我们可以得出结论领域通用知识显著提高了从属模态视觉和声学模态的性能。此外我们发现引入领域通用知识显著提高了MOSI数据集上音频模态的性能。原因是领域特定知识在MOSI数据集中的音频模态上表现相对较差导致明显的改进。 图9说明了仅使用领域特定知识就会出现分类错误的情况而引入领域通用知识会导致正确的预测。这些结果表明利用领域通用知识来提高特定模态的性能是有效的 跨模态歧义分析 为了深入了解我们提出的语言引导的歧义学习我们举例说明了几个结果。具体来说我们分析了文本模态与混合模态表示→参见Eq(17)之间从视觉到文本的距离参见Eq(20)同时也展示了视觉模态的表现。我们引入了一个辅助任务来预测个体模态的情绪极性。在我们的实验中我们发现辅助任务不影响MSA模型的性能。图10(a)和(b)分别显示了前5%的距离和后5%的距离以及每种模态的相应分类结果。 从图10中我们可以观察到随着混合模态表示从视觉模态到文本模态的距离增加在相应的单模态中预测错误的比例也会增加。相反当与文本的距离较小时单模态中正确预测的比例显着增加。这一事实证实了我们的假设即混合模态和主导模态之间的距离越大从属模态和主导模态之间歧义的可能性就越高。因此我们设计了语言引导的跨模态歧义学习通过明确测量歧义来动态控制混合模态的权重从而强化优势模态。 定性结果 两种不同模式下的预测。 使用Transformer对从属视觉和听觉模态的预测是不正确的。使用Transformer对主导模态的预测是正确的。 用跨模态相互作用来预测多模态是不正确的。利用本文提出的RMA对多模态的预测是正确的。符号S表示正增益。 为了定性地验证RMA的有效性我们在CMU-MOSI数据集上展示了几个典型的例子。图11显示了我们的模型动态调整混合模态表示从从属模态到主导模态当从属模态和主导模态之间存在歧义时基于距离Eq20和Eq21调整混合模态表示的融合权重Eq22。从图11 [(a1),(a2)]和[(b1),(b2)]可以观察到当混合模态表示与文本模态从非文本到文本模态存在歧义时其歧义测量值显著高于平均距离。我们通过减少混合模态的权重来强化文本模态从而最大限度地减少从属模态对主导模态的影响从而获得正确的预测结果。图11明确地表明即使在存在歧义的情况下调整融合权重仍然可以导致正确的预测。 conclusion 本文提出了一种用于多模态情感分析的跨模态歧义学习方法。具体来说我们引入和过滤外部领域通用知识来强化每种模式并提高性能。随后我们引入了一个明确的语言引导的跨模态歧义学习模块来量化混合模态和主导模态之间的歧义。我们基于歧义度量动态调整从从属模态到主导模态的跨模态迁移信息。实验结果证明了我们提出的模型在三个多模态情感分析基准数据集上的有效性。
http://www.dnsts.com.cn/news/88124.html

相关文章:

  • 国外哪些做问卷赚钱的网站wordpress官方网站
  • 学做网站开发吗vr网站开发技术
  • 商城网站建设的注意事项做网站的软件多少钱
  • seo网站建设培训全新装修效果图大全
  • 网站建设管理的建议劳动局免费培训电工
  • 企业网站源码排行word怎么做网站导航栏
  • 专业做物业网站的公司吗wordpress实现代码块
  • 网站建设不完整网站设计怎么做一点首页就跳转
  • 短视频网站平台怎么做的wordpress调整时间
  • 进出口网站贸易平台有哪些精品网站建设费用 找磐石网络一流
  • 1688做网站需要多少钱修改wordpress wp-admin
  • 西安seo网站推广优化网站建设学校培训班
  • 房地产类型的网站建设wordpress仿凡客商城主题
  • 上海个人网站建立网站图标怎么换
  • 自己怎么建h5商城网站wordpress无法登录后台显示500
  • 网站建设素材收集通知推广计划和推广单元有什么区别
  • 网站脚本错误黄页88网官网登录
  • 合肥大型网站制作公司开网站 怎么做网上支付
  • 京东网站建设框架图学物联网工程后悔死了
  • 做网站用什么软件最简单企业网站推广效果从哪些方面进行分析
  • 做损坏文档的网站青岛市房产信息网官网
  • 微网站 域名网站建设合作加盟
  • 做全英文网站元气森林网络营销案例
  • 西宁网站建设报价ew君博贴心品牌宣传网站制作
  • 高端网站设计公司上海建设工程新工艺网站
  • js网站模板湖南seo排名
  • 做网站干什么用wordpress 4.9.6 漏洞
  • 做读书网站的前景企业微信登录网页版
  • 富顺做网站wordpress 改变字体
  • 网站的设计要素wordpress 定时发送