当前位置: 首页 > news >正文

厦门市建设协会网站首页安卓app怎么开发

厦门市建设协会网站首页,安卓app怎么开发,一个网站突然打不开,软件定制公司排名FLCert: Provably Secure Federated Learning Against Poisoning Attacks | IEEE Journals Magazine | IEEE Xplore 摘要 由于其分布式性质#xff0c;联邦学习容易受到中毒攻击#xff0c;其中恶意客户端通过操纵其本地训练数据和/或发送到云服务器的本地模型更新来毒…FLCert: Provably Secure Federated Learning Against Poisoning Attacks | IEEE Journals Magazine | IEEE Xplore 摘要 由于其分布式性质联邦学习容易受到中毒攻击其中恶意客户端通过操纵其本地训练数据和/或发送到云服务器的本地模型更新来毒害训练过程从而使中毒的全局模型错误地分类许多不分青红皂白的测试输入或攻击者选择的输入。现有的防御主要利用拜占庭式的联合学习方法或检测恶意客户端。但是这些防御措施没有针对中毒攻击的可证明的安全保证并且可能容易受到更高级的攻击。在这项工作中我们的目标是通过提出FLCert来弥合差距FLCert是一个集成的联合学习框架可以证明可以安全地抵御有限数量的恶意客户端的中毒攻击。我们的主要思想是将客户划分为组使用任何现有的联邦学习方法为每组客户端学习全局模型并在全局模型中获得多数票以对测试输入进行分类。具体来说我们考虑了两种对客户端进行分组的方法并相应地提出了两种 FLCert 变体即 FLCert-P 在每个组中随机采样客户端以及 FLCert-D 确定性地将客户端划分为不相交组。我们在多个数据集上的大量实验表明我们的 FLCert 为测试输入预测的标签可证明不受有限数量的恶意客户端的影响无论它们使用何种中毒攻击。 一、引言 联邦学习FL[18][23]是一种新兴的机器学习范式它使客户例如智能手机物联网设备和组织能够协作学习模型而无需与云服务器共享其本地训练数据。由于其承诺保护客户本地培训数据的隐私以及新兴的隐私法规如通用数据保护条例GDPRFL已被行业部署。例如谷歌已经在Android Gboard上部署了FL用于下一个单词预测。现有的FL方法主要遵循单一全局模型范式。具体来说云服务器维护一个全局模型每个客户端维护一个本地模型。全局模型通过客户端和服务器之间的多次通信迭代进行训练。在每次迭代中执行三个步骤1服务器将当前全局模型发送给客户端;2客户端根据全局模型和本地训练数据更新本地模型并将模型更新发送到服务器;3 服务器聚合模型更新并使用它们来更新全局模型。然后使用学习的全局模型来预测测试输入的标签。 然而这种单一全局模型范式容易受到中毒攻击。特别是攻击者可以将假客户端注入 FL 或破坏正版客户端我们称假客户端为恶意客户端。例如攻击者可以使用功能强大的计算机来模拟许多假冒智能手机。此类恶意客户端可以通过仔细篡改发送到服务器的本地训练数据或模型更新来破坏全局模型。因此损坏的全局模型对于正常测试输入 [6]、[10]称为非靶向中毒攻击或某些攻击者选择的测试输入 [2]、[3]称为靶向中毒攻击的准确性较低。例如在非目标中毒攻击中恶意客户端可以通过操纵其本地模型更新来偏离全局模型使其与在没有攻击的情况下更新的方向相反[10]。在有针对性的中毒攻击中当学习图像分类器时恶意客户端可以在其本地训练数据中将带有某些条带的汽车重新标记为鸟类并扩展发送到服务器的模型更新以便全局模型错误地将带有条带的汽车预测为鸟 [2]。 已经提出了各种拜占庭稳健的FL方法来防御来自恶意客户端的中毒攻击。[4] [5] [32]。这些方法的主要思想是减轻客户模型更新中统计异常值的影响。它们可以绑定在没有恶意客户端的情况下学习的全局模型参数与在某些客户端变得恶意时学习的全局模型参数之间的差异。但是这些方法无法证明测试输入的全局模型预测的标签不受恶意客户端的影响。事实上研究表明恶意客户端仍然可以通过仔细篡改发送到服务器的模型更新来大幅降低拜占庭鲁棒方法学习的全局模型的测试准确性[3][6][10]。 A. 我们的工作 在这项工作中我们提出了FLCert这是第一个可以证明对中毒攻击安全的FL框架。具体来说给定n 客户我们定义N 组每个组都包含客户端的一个子集。特别是我们设计了两种对客户端进行分组的方法对应于FLCert的两个变体即FLCert-P和FLCert-D其中P和D分别代表概率和确定性。在 FLCert-P 中每个N 组包括k 从n 客户端统一随机。请注意总共有(nk) 可能的组因此N 可以和(nk) 在 FLCert-P.在 FLCert-D 中我们将n 客户进入N 确定性地不相交组。 对于每个组我们使用任意 FL 算法称为基本 FL 算法与组中的客户端学习全局模型。总的来说我们训练N 全球模型。给定测试输入x 我们使用每个N 预测其标签的全局模型。我们表示n我 作为预测标签的全局模型的数量我 为x 并定义p我n我n 哪里i12⋯L . 我们的集成全局模型预测标签频率/概率最大的标签x .换句话说我们的集成全局模型在N 用于预测标签的全局模型x .由于每个全局模型都是使用客户端子集学习的因此当大多数客户端是良性的时大多数全局模型都是使用良性客户端学习的。因此多数票标签中的N 测试输入的全局模型不受有限数量的恶意客户端的影响无论它们使用何种中毒攻击。 B. 理论 我们的第一个主要理论结果是FLCert 可证明地预测了测试输入的相同标签x 当恶意客户端的数量不大于阈值时我们称之为认证安全级别。我们的第二个主要理论结果是我们证明了我们派生的认证安全级别是严格的即当没有对基础FL算法做出假设时不可能推导出比我们更大的认证安全级别。请注意对于不同的测试输入认证安全级别可能不同。 C. 算法 计算我们认证的安全级别x 需要其最大和第二大标签频率/概率。对于 FLCert-P当(nk) 很小例如n 客户是数十个组织[17]和k 很小我们可以通过训练精确地计算最大和第二大标签概率N(nk) 全球模型。但是在以下情况下准确计算它们具有挑战性(nk) 很大。为了应对计算挑战我们开发了一种随机算法通过训练以概率保证来估计它们N≪(nk) 全球模型。由于这种随机性FLCert-P实现了概率安全保证即FLCert-P为测试输入输出不正确的认证安全级别其概率可以设置为任意小。对于FLCert-D我们训练N 全局模型并确定性地获取标签频率使FLCert-D的安全保证具有确定性。 D. 评价 我们在来自不同领域的五个数据集上实证评估了我们的方法包括三个图像分类数据集MNIST-0.1 [20]MNIST-0.5 [20]和CIFAR-10 [19]人类活动识别数据集HAR[1]和下一个单词预测数据集Reddit[2]。我们将MNIST和CIFAR中的训练示例分发给客户端以模拟FL场景而HAR和Reddit数据集代表真实世界的FL场景其中每个用户都是一个客户端。我们还评估了五种不同的基本FL算法即FedAvg [23]Krum [4]Trimmed-mean[32]Median [32]和FLTrust [5]。此外我们使用认证的准确性作为我们的评估指标这是无论恶意客户端使用何种中毒攻击方法都可以证明达到的测试准确性的下限。例如我们的FLCert-D与FedAvg和N500 当训练示例均匀分布在 811 个客户端且其中 000 个是恶意客户端时可以在 MNIST 上达到 100% 的认证准确率。 总之我们的主要贡献如下 我们提出了FLCert一个具有可证明的安全保证的FLCert框架可以防止中毒攻击。具体来说FLCert-P 提供概率安全保证而 FLCert-D 提供确定性保证。此外我们证明我们派生的认证安全级别是严格的。 我们提出了一种随机算法来计算FLCert-P的认证安全级别。 我们在来自不同领域的多个数据集和多个基本 FL 算法上评估 FLCert。我们的结果表明FLCert在理论上和经验上都对中毒攻击是安全的。 二、相关工作 A. 联邦学习 客户端和服务器协作以迭代方式解决优化问题。具体来说在训练过程的每次迭代中执行以下三个步骤1服务器将当前全局模型广播给子集客户端;2客户端将其本地模型初始化为接收的全局模型使用随机梯度下降训练局部模型并将本地模型更新发送回服务器;3服务器聚合本地模型更新并更新全局模型。 B. 对FL的中毒攻击 最近的研究[2][3][6][10][24][27]表明FL容易受到中毒攻击。 根据攻击者的目标对FL的中毒攻击可以分为两类非靶向中毒攻击[6][10][24][27]和有针对性的中毒攻击[2][3]。 1非针对性中毒攻击 非靶向中毒攻击的目标是降低学习到的全局模型的测试准确性。这些攻击旨在尽可能提高全局模型的不分青红皂白的测试错误率这可以被视为拒绝服务DoS攻击。根据攻击的执行方式非靶向中毒攻击有两种变体即数据中毒攻击 [27] 和本地模型中毒攻击 [6]、[10]。数据中毒攻击会篡改恶意客户端上的本地训练数据同时假设计算过程保持完整性。他们注入虚假的训练数据点删除现有的训练数据点和/或修改现有的训练数据点。本地模型中毒攻击篡改恶意客户端的计算过程即直接篡改恶意客户端的本地模型或发送到服务器的模型更新。请注意在 FL 中任何数据中毒攻击都可以通过本地模型中毒攻击来实现。这是因为在每个恶意客户端上我们始终可以将使用篡改的本地训练数据集训练的本地模型视为被篡改的本地模型。 2有针对性的中毒攻击 针对性中毒攻击旨在强制全局模型预测目标测试输入的目标标签而其在非目标测试输入上的性能不受影响。目标中毒攻击中的目标测试输入可以是特定的测试输入 [3]、具有某些属性 [2] 的某些测试输入或嵌入了特定触发器的测试输入 [2]。如果目标测试输入是触发器嵌入的测试输入则有针对性的中毒攻击也称为后门攻击。后门攻击旨在破坏全局模型以便为嵌入预定义触发器的任何测试输入预测攻击者选择的目标标签。 C. 防御对FL中毒攻击 已经提出了许多防御措施[8][14][15][16][21][22][26][28][29][30]以应对集中学习场景中的数据中毒攻击。 但是它们不足以防御对FL的中毒攻击。特别是经验防御[8][22][30]需要有关训练数据集的知识出于隐私考虑FL服务器通常无法使用这些知识。此外可证明安全的防御 [14]、[15]、[16]、[21]、[26]、[28]、[29] 可以保证为测试输入预测的标签不受有限数量的中毒训练示例的影响。 但是在 FL 中单个恶意客户端可以毒害任意数量的本地训练示例从而打破其假设。 拜占庭稳健的FL方法[4][5][32]利用拜占庭稳健的聚合规则来抵抗中毒攻击。他们分享了在聚合本地模型更新时减轻中毒攻击引起的统计异常值的影响的想法。例如Krum [4] 选择具有最小平方欧几里得距离分数的单个模型更新作为新的全局模型更新;修剪平均值 [32] 计算修剪后模型更新参数的坐标平均值并使用相应的平均值更新全局模型;中位数 [32] 通过计算局部模型更新的坐标中位数来更新全局模型;FLTrust [5] 利用一个小型干净数据集来计算服务器更新并将其用作基线来引导对本地模型更新的信任。这些方法都有一个关键限制它们无法提供可证明的安全保证即当存在中毒攻击时它们无法确保用于测试输入的全局模型的预测标签保持不变。 另一种类型的防御侧重于检测恶意客户端并在聚合之前删除其本地模型 [10] [25] [33]。Shen等人[25]建议在本地模型上执行聚类以检测恶意客户端。Fang et al. [10] 提出了两种防御措施即使用验证数据集根据它们对验证数据集上评估的错误率或损失值的影响来拒绝潜在的恶意本地模型。Zhang等人[33]提出通过检查模型更新的一致性来检测恶意客户端。这些防御在检测恶意客户端方面显示出一些经验有效性。但是它们也无法提供可证明的安全保证。 Wang等人[28]提出了一种经过认证的后门攻击防御措施。最近的一项工作[31]将这种方法扩展到FL并称之为CRFL。CRFL旨在证明针对特定后门攻击的鲁棒性[2]其中所有恶意客户端都使用后门本地训练数据集训练其本地模型并在一次FL迭代中同时将其模型更新发送到服务器之前扩展其模型更新。他们表明如果恶意客户端本地训练数据的变化幅度有限则可以证明在这种特定攻击下学习的全局模型的准确性。但是恶意客户端可以任意更改其本地训练数据。因此单个恶意客户端可以通过使用中毒攻击而不是被视为特定的后门攻击来破坏其防御。相反无论恶意客户端执行何种攻击我们的 FLCert 都是可证明安全的。
http://www.dnsts.com.cn/news/69280.html

相关文章:

  • 建设工程案例网站dnf交易网站建设
  • 网站弹出咨询这个怎么做做网站499
  • 网站更新怎么做长沙网页制作设计
  • 做英文兼职的网站怎样做国外网站推广
  • 做网站需要雇什么人忻州集团网站建设
  • 高明网站设计案例固原建站公司
  • 做外贸网站哪家公司好新出网页游戏
  • app推广代理平台seo排名优化推荐
  • 宝应县住房和城乡建设局网站台州市城乡建设局网站
  • 网站论坛建设需要什么资质钓鱼网站怎么搭建
  • wordpress免费教程视频淘宝的seo是什么意思
  • 做网站写的代号好跟不好的区别app推广策略
  • 清远企业网站建设公司wordpress菜单如何做
  • 网站编辑器判断WordPress数据库禁用插件
  • 做宠物网站东莞人才市场招聘官网
  • 怎样做像绿色和平组织类似的网站wordpress后台403
  • 网站建设 办公系统金华市建设银行网站
  • 软件开发和网站开发难度iis7 wordpress伪静态
  • 上海人才中心网站电子商务网站设计原则
  • 在本地做改版如何替换旧网站会影响百度收录吗wordpress 媒体库空白
  • 网站排名要怎么做xml wordpress
  • 网站友链是什么情况湖南网站设计亮点
  • 设计一套企业网站多少钱谢岗做网站
  • 唐山做网站公司汉狮价格颜色选取网站
  • 怎么在国外做网站google搜索网址
  • 做网站的网站违不违法甜品网页设计模板html
  • 建设一个电商网站的流程专业seo关键词优化
  • 找人做的网站怎么运行贵阳软件制作
  • 网站开发语言统计淘宝网站后台怎么做
  • 网站提交至googlewordpress字体功能