高端网站设计思路,安丘网站建设aqfeifan,电商运营推广计划方案,济南网站设计报价对抗攻击方法详解#xff1a;梯度攻击、转移攻击与模型集成攻击
近年来#xff0c;随着深度学习模型在各个领域取得惊人突破#xff0c;对抗攻击#xff08;Adversarial Attack#xff09; 逐渐成为研究热点。对抗攻击旨在通过在输入数据上施加精心设计的微小扰动#x…对抗攻击方法详解梯度攻击、转移攻击与模型集成攻击
近年来随着深度学习模型在各个领域取得惊人突破对抗攻击Adversarial Attack 逐渐成为研究热点。对抗攻击旨在通过在输入数据上施加精心设计的微小扰动使得模型的预测结果出现显著错误。本文将详细介绍三种主要的对抗攻击策略基于梯度的攻击、基于转移的攻击 和 模型集成攻击并探讨它们的核心思想、实现方法及背后的数学原理。 1. 基于梯度的对抗攻击Gradient-based Adversarial Attack
核心思想
基于梯度的对抗攻击方法依赖于模型的梯度信息。对于一个给定的输入样本 x x x和标签 y y y攻击的目标是找到一个小的扰动 δ \delta δ使得输入 x δ x \delta xδ导致模型的预测输出产生显著偏差。具体来说基于梯度的方法通过在输入样本 x x x上施加扰动 δ \delta δ来最大化模型的损失函数 L ( x , y ) L(x, y) L(x,y)进而生成对抗样本 x a d v x δ x_{adv} x \delta xadvxδ。
这种方法依赖于神经网络的局部线性化假设即在输入空间中网络的行为可以通过对输入进行一阶泰勒展开式近似描述。
梯度的概念
在神经网络中梯度是模型输出相对于输入的变化率。通常梯度用于梯度下降法来优化神经网络的损失函数。然而在对抗攻击中梯度用于生成扰动目标是反向操作即找到扰动 δ \delta δ使得损失函数上升即损失增大而非下降。
损失函数 L ( x , y ) L(x, y) L(x,y)是输入 x x x和标签 y y y的函数我们需要计算损失函数关于输入 x x x的梯度即 ∇ x L ( x , y ) \nabla_x L(x, y) ∇xL(x,y)。这个梯度告诉我们如何改变输入 x x x使得损失函数增加即预测变得不准确。为了生成对抗样本我们使用梯度上升的策略使得输入在梯度方向上被扰动。
具体实现方法
快速梯度符号法FGSM
FGSM 是一种基本的基于梯度的对抗攻击方法其目标是通过在输入 x x x上施加最小扰动 δ \delta δ以极大化损失函数。其扰动的计算公式为 x a d v x ϵ ⋅ sign ( ∇ x L ( x , y ) ) x_{adv} x \epsilon \cdot \text{sign}(\nabla_x L(x, y)) xadvxϵ⋅sign(∇xL(x,y))
其中 ϵ \epsilon ϵ是控制扰动大小的超参数通常是一个较小的值如 0.01 0.01 0.01。 sign ( ∇ x L ( x , y ) ) \text{sign}(\nabla_x L(x, y)) sign(∇xL(x,y))表示梯度的符号函数确保在梯度的正负方向上分别施加相应的扰动。
通过此公式我们在梯度的符号方向上施加扰动。由于符号函数仅保留梯度的方向而忽略大小这使得FGSM计算效率高但会丢失精确的扰动信息。 Ian Goodfellow, Jonathon Shlens, and Christian Szegedy. Explaining and harnessing adversarial examples. In Proc. Int’l Conf. Learn. Repres., 2015. 迭代快速梯度符号法I-FGSM
I-FGSM 是 FGSM 的扩展版本它通过多次迭代的方式来逐步施加扰动每次的步长为 α \alpha α。具体更新规则为 x a d v ( t 1 ) x a d v ( t ) α ⋅ sign ( ∇ x L ( x a d v ( t ) , y ) ) x_{adv}^{(t1)} x_{adv}^{(t)} \alpha \cdot \text{sign}(\nabla_x L(x_{adv}^{(t)}, y)) xadv(t1)xadv(t)α⋅sign(∇xL(xadv(t),y))
其中 t t t表示当前的迭代次数。 α \alpha α是每次迭代的步长通常 α ≪ ϵ \alpha \ll \epsilon α≪ϵ。
I-FGSM 相比 FGSM 可以生成更强的对抗样本因为它通过多次迭代能够捕获更多的损失函数变化趋势。 Jiakai Wang. Adversarial examples in physical world. In Proc. Int’l Joint Conf. Artif. Intell., pages 4925–4926, 8 2021. 投影梯度下降PGD
PGD 是 I-FGSM 的一种改进版本它在每次迭代生成扰动之后将对抗样本投影回允许的扰动范围内例如 L ∞ L_\infty L∞球内确保生成的扰动不会超过规定的幅度范围。其更新规则为 x a d v ( t 1 ) Proj x ϵ ( x a d v ( t ) α ⋅ sign ( ∇ x L ( x a d v ( t ) , y ) ) ) x_{adv}^{(t1)} \text{Proj}_{x\epsilon} \left( x_{adv}^{(t)} \alpha \cdot \text{sign}(\nabla_x L(x_{adv}^{(t)}, y)) \right) xadv(t1)Projxϵ(xadv(t)α⋅sign(∇xL(xadv(t),y)))
这里的 Proj x ϵ \text{Proj}_{x\epsilon} Projxϵ表示将生成的对抗样本投影回以 x x x为中心半径为 ϵ \epsilon ϵ的 L ∞ L_\infty L∞球内。PGD 是公认的最强的白盒攻击方法之一因为它通过多次迭代确保扰动的范围被严格控制同时提升了攻击的强度。 Aleksander Madry, Aleksandar Makelov, Ludwig Schmidt, Dimitris Tsipras, and Adrian Vladu. Towards deep learning models resistant to adversarial attacks. In Proc. Int’l Conf. Learn. Repres., 2018. 数学原理
基于梯度的对抗攻击依赖于目标模型的梯度信息。通过扰动输入数据使得目标模型的损失函数最大化。这种方法可以通过泰勒展开式进行解释。
假设模型的损失函数 L ( x , y ) L(x, y) L(x,y)在输入 x x x附近是可微的则可以对 L ( x , y ) L(x, y) L(x,y)进行一阶泰勒展开 L ( x δ , y ) ≈ L ( x , y ) δ T ∇ x L ( x , y ) L(x \delta, y) \approx L(x, y) \delta^T \nabla_x L(x, y) L(xδ,y)≈L(x,y)δT∇xL(x,y)
这里的 ∇ x L ( x , y ) \nabla_x L(x, y) ∇xL(x,y)表示损失函数关于输入 x x x的梯度。
通过对 δ \delta δ进行优化可以使得 δ T ∇ x L ( x , y ) \delta^T \nabla_x L(x, y) δT∇xL(x,y)最大化从而增加损失函数的值。这是基于梯度的对抗攻击的数学基础。
常见问题
黑盒攻击难度较大基于梯度的攻击需要访问模型的梯度信息因此在黑盒场景下即无法直接访问梯度信息的场景表现较差。易受模型防御策略影响对抗训练等防御方法可以通过在训练过程中引入对抗样本来缓解此类攻击的效果。 2. 基于转移的对抗攻击Transfer-based Adversarial Attack (a) Transfer-based attack基于迁移的攻击
图中展示了通过从一个模型代理模型生成对抗样本然后将这些样本转移到另一个目标模型中进行攻击的传统方法。这种方法的思想是希望对抗样本能够跨模型具有通用性即能够迁移到其他模型上产生相同的效果。图中的绿色圆圈代表干净的图像蓝色三角形代表对抗样本蓝线表示代理模型的决策边界红线表示目标模型的决策边界。攻击方向蓝色箭头旨在移动输入以跨越代理模型的决策边界但 由于目标模型的决策边界与代理模型不同导致对抗样本在目标模型上的迁移成功率较低。下方柱状图表明这种攻击方式在CNNs上有17.66%的攻击成功率但在ViTs上仅有2.02%的成功率表明迁移性较弱。
核心思想
基于转移的对抗攻击的目标是生成可以在 多个模型 上有效的对抗样本尤其是黑盒场景下。这类攻击基于一个重要的观察某些对抗样本不仅能够欺骗生成它的模型还可以在不同结构、不同权重的模型上同样有效。这被称为对抗样本的迁移性Transferability。
实现方式
神经元重要性
一种增强对抗样本迁移性的方法是 利用神经网络中的神经元重要性 。Wang等人提出通过最大化关键神经元的失真生成能够在多个模型上具有高攻击成功率的对抗样本。关键神经元是指对模型 决策影响较大 的神经元扰动这些神经元的激活值能够更显著地影响模型输出从而提升对抗样本的迁移性。 Z. Wang, H. Guo, Z. Zhang, W. Liu, Z. Qin, and K. Ren. Feature importance-aware transferable adversarial attacks. In Proc. IEEE Int’l Conf. Comput. Vis., pages 7619–7628, 2021. 输入多样性和平移不变策略
为了增加对抗样本的普适性Xie等人和Dong等人提出了通过对输入数据进行多样化变换如缩放、翻转等来提高对抗扰动的迁移能力。通过在每次迭代中对输入进行随机变换攻击可以避免仅针对某个特定模型过拟合从而提高对不同模型的适应性。 Cihang Xie, Zhishuai Zhang, Yuyin Zhou, Song Bai, Jianyu Wang, Zhou Ren, and Alan L. Yuille. Improving transferability of adversarial examples with input diversity. In Proc. Conf. Comput. Vis. Pattern Recognit., June 2019.Yinpeng Dong, Tianyu Pang, Hang Su, and Jun Zhu. Evading defenses to transferable adversarial examples by translation-invariant attacks. In Proc. Conf. Comput. Vis. Pattern Recognit., June 2019. PI-FGSM
Gao等人提出的 基于块的扰动方法PI-FGSM通过生成基于图像块的扰动而非逐像素的扰动提高了黑盒攻击的成功率。这种方法通过减少扰动的局部性提高了对抗样本的迁移性。 Lianli Gao, Qilong Zhang, Jingkuan Song, Xianglong Liu, and Heng Tao Shen. Patch-wise attack for fooling deep neural network. In Proc. Euro. Conf. Comput. Vis., pages 307322, 2020. 数学原理
基于转移的对抗攻击的原理依赖于对输入空间中共享的决策边界的探索。不同模型在相似的数据上训练时通常会学到相似的特征因此对一个模型有效的扰动有时能够在其他模型上同样有效。
假设我们有两个模型 f 1 f_1 f1和 f 2 f_2 f2它们的损失函数分别为 L 1 ( x , y ) L_1(x, y) L1(x,y)和 L 2 ( x , y ) L_2(x, y) L2(x,y)。对抗样本的目标是找到一个扰动 δ \delta δ使得 δ arg max δ ( L 1 ( x δ , y ) L 2 ( x δ , y ) ) \delta \arg\max_{\delta} \left( L_1(x \delta, y) L_2(x \delta, y) \right) δargδmax(L1(xδ,y)L2(xδ,y))
通过优化 δ \delta δ我们希望生成一个对两个模型都有效的扰动。
常见问题
难以转移到新的网络结构尽管这些方法在传统的卷积神经网络CNN上表现良好但对新兴的深度学习架构如视觉TransformerViT效果较差。依赖特定特征许多基于转移的攻击依赖于神经网络的特定特征如局部性这使得它们难以在一些依赖全局特征的模型上迁移。 3. 模型集成攻击Ensemble-based Adversarial Attack (b) Ensemble attack模型集成攻击
此方法通过结合多个代理模型的输出如logits或loss生成对抗样本希望提高对抗样本的迁移性。直观上这种方法应该能够捕捉到多个模型之间共同的特征理论上可以更好地欺骗目标模型。图中显示的是两个不同的代理模型决策边界蓝色和红色攻击方向基于多个模型的组合决策。虚线表示多个代理模型的攻击方向表明尝试同时欺骗多个模型但结果显示由于没有充分利用每个模型的个体优势攻击效果有限。从柱状图可以看出集成攻击相较于单一的迁移攻击略有改进在CNNs上达到了18.54%的成功率在ViTs上也略微提升至8.74%。
核心思想
模型集成攻击的核心思想是通过同时攻击多个白盒模型生成能够在所有模型上都有效的对抗样本。通过多个模型的联合优化可以捕捉到更通用的对抗扰动从而提升对抗样本在黑盒场景下的迁移性。
实现方式
简单加权平均
Liu等人提出了一种简单的集成方法通过对多个白盒模型的梯度信息进行加权平均生成对抗样本。具体而言假设我们有 n n n个模型它们的损失函数分别为 L 1 ( x , y ) , L 2 ( x , y ) , … , L n ( x , y ) L_1(x, y), L_2(x, y), \dots, L_n(x, y) L1(x,y),L2(x,y),…,Ln(x,y)那么集成攻击的损失函数为 L ensemble ( x , y ) 1 n ∑ i 1 n L i ( x , y ) L_{\text{ensemble}}(x, y) \frac{1}{n} \sum_{i1}^{n} L_i(x, y) Lensemble(x,y)n1i1∑nLi(x,y)
通过对 L ensemble ( x , y ) L_{\text{ensemble}}(x, y) Lensemble(x,y)进行优化可以生成对所有模型都有效的对抗样本。 Yanpei Liu, Xinyun Chen, Chang Liu, and Dawn Song. Delving into transferable adversarial examples and blackbox attacks. In Proc. Int’l Conf. Learn. Repres., 2017. Logit和损失融合
为了进一步提升集成对抗样本的强度Dong等人提出融合多个模型的logit即模型输出的 未归一化预测值 和损失函数以提高对抗扰动的迁移性。 Yinpeng Dong, Tianyu Pang, Hang Su, and Jun Zhu. Evading defenses to transferable adversarial examples by translation-invariant attacks. In Proc. Conf. Comput. Vis. Pattern Recognit., June 2019. 随机方差减少集成SVRE
Xiong等人提出的SVRE方法通过减少集成模型之间的梯度方差提升了对抗样本的泛化能力。这种方法通过在不同模型之间引入随机化减小了模型间的差异性从而生成更通用的对抗扰动。 Yifeng Xiong, Jiadong Lin, Min Zhang, John E. Hopcroft, and Kun He. Stochastic variance reduced ensemble adversarial attack for boosting the adversarial transferability. In Proc. Conf. Comput. Vis. Pattern Recognit., pages 1498314992, June 2022. 数学原理
模型集成攻击的基本思想是利用集成学习的思想通过对多个模型的损失函数进行加权组合来生成对抗样本。假设我们有 n n n个模型每个模型的损失函数为 L i ( x , y ) L_i(x, y) Li(x,y)集成攻击的损失函数可以表示为 L ensemble ( x , y ) 1 n ∑ i 1 n L i ( x , y ) L_{\text{ensemble}}(x, y) \frac{1}{n} \sum_{i1}^{n} L_i(x, y) Lensemble(x,y)n1i1∑nLi(x,y)
通过对这个集成损失进行优化我们可以找到一种扰动 δ \delta δ使得这个扰动对所有模型都有效。
常见问题
未充分利用个体模型的优势尽管集成攻击方法能够在多个模型上生成有效的对抗样本但它们通常忽略了个体模型的独特性无法充分利用每个模型的特定优势。计算开销较大集成多个模型的攻击需要更多的计算资源尤其是在对抗大型深度学习模型时可能带来较高的时间和空间成本。 总结
基于梯度的攻击是白盒场景下的强大攻击方法但其对黑盒场景的适应性较差且容易被对抗训练等防御策略抵消。基于转移的攻击通过生成具有迁移性的对抗样本提升了黑盒攻击的成功率但在新型深度学习架构上效果有限。模型集成攻击通过结合多个模型的信息提升了对抗扰动的泛化能力但需要更多的计算资源且在利用个体模型的独特性上仍有改进空间。