当前位置: 首页 > news >正文

保险网站有哪些平台我的网站设计联盟

保险网站有哪些平台,我的网站设计联盟,谷歌浏览器网页版进入,wordpress数据库命名SMO算法#xff08;Sequential Minimal Optimization#xff09; 是一种用于求解 支持向量机#xff08;SVM#xff09; 二次规划对偶问题的优化算法。它由 John Platt 在 1998 年提出#xff0c;目的是快速解决 SVM 的优化问题#xff0c;特别是当数据集较大时#xff…SMO算法Sequential Minimal Optimization 是一种用于求解 支持向量机SVM 二次规划对偶问题的优化算法。它由 John Platt 在 1998 年提出目的是快速解决 SVM 的优化问题特别是当数据集较大时传统的二次规划方法效率较低而 SMO 算法通过分解问题使得计算变得更加高效。 SVM 的二次规划问题回顾 支持向量机的优化问题本质上是一个 凸二次规划问题其目标是找到最优的超平面使得样本点的分类间隔最大。具体来说SVM 的对偶问题形式为 min ⁡ α 1 2 ∑ i 1 N ∑ j 1 N α i α j y i y j K ( x i , x j ) − ∑ i 1 N α i \min_{\alpha} \quad \frac{1}{2} \sum_{i1}^{N} \sum_{j1}^{N} \alpha_i \alpha_j y_i y_j K(x_i, x_j) - \sum_{i1}^{N} \alpha_i αmin​21​i1∑N​j1∑N​αi​αj​yi​yj​K(xi​,xj​)−i1∑N​αi​ s.t. ∑ i 1 N α i y i 0 , 0 ≤ α i ≤ C \text{s.t.} \quad \sum_{i1}^{N} \alpha_i y_i 0, \quad 0 \leq \alpha_i \leq C s.t.i1∑N​αi​yi​0,0≤αi​≤C 其中 α i \alpha_i αi​ 是拉格朗日乘子。 y i y_i yi​ 是样本点 x i x_i xi​ 的类别标签。 K ( x i , x j ) K(x_i, x_j) K(xi​,xj​) 是核函数表示样本之间的相似性。 C C C 是惩罚参数。 这个问题涉及到对所有 N N N 个拉格朗日乘子 α \alpha α 进行优化传统的优化算法如 内点法 或 QPQuadratic Programming 方法在处理大规模问题时效率较低。 SMO 算法的基本思想 SMO 算法通过将原始的优化问题分解为多个 子问题 来求解每次仅优化两个拉格朗日乘子 α 1 \alpha_1 α1​ 和 α 2 \alpha_2 α2​其余乘子保持不变。优化两个变量的子问题可以通过简单的解析方法快速求解从而大大减少了计算的复杂度。 SMO算法的步骤 选择两个拉格朗日乘子 SMO算法每次选择两个拉格朗日乘子 α 1 \alpha_1 α1​ 和 α 2 \alpha_2 α2​ 进行优化。选择这两个乘子的原则是它们不满足 KKT条件即当前的解不是最优的。 构建子优化问题 假设所有其他拉格朗日乘子保持不变SMO通过优化两个乘子 α 1 \alpha_1 α1​ 和 α 2 \alpha_2 α2​ 来最小化目标函数。优化问题变成了一个关于 α 1 \alpha_1 α1​ 和 α 2 \alpha_2 α2​ 的二次函数且由于存在约束 ∑ i 1 N α i y i 0 \sum_{i1}^{N} \alpha_i y_i 0 ∑i1N​αi​yi​0因此这两个变量之间有一个线性关系。 更新两个拉格朗日乘子的值 SMO 通过解析的方法计算出新的 α 1 \alpha_1 α1​ 和 α 2 \alpha_2 α2​ 值并根据边界 [ 0 , C ] [0, C] [0,C] 进行截断。计算后的两个新的乘子必须满足所有约束条件。 更新偏置项 b b b 每次更新两个拉格朗日乘子后SMO 需要更新支持向量机中的偏置项 b b b以保证分类超平面保持正确。 迭代重复 SMO 通过不断重复选择一对拉格朗日乘子进行优化直到所有的乘子都满足 KKT 条件即算法收敛。 SMO 算法的核心优化过程 SMO 算法的核心在于它将每次优化问题简化为一个涉及两个变量的二次规划问题。假设我们要优化 α 1 \alpha_1 α1​ 和 α 2 \alpha_2 α2​我们可以通过以下步骤来求解 计算未约束解根据优化目标函数我们可以直接计算出未约束的 α 2 new, unc \alpha_2^{\text{new, unc}} α2new, unc​即不考虑任何约束时最优的 α 2 \alpha_2 α2​ 值。 α 2 new, unc α 2 old y 2 ⋅ E 1 − E 2 K 11 K 22 − 2 K 12 \alpha_2^{\text{new, unc}} \alpha_2^{\text{old}} y_2 \cdot \frac{E_1 - E_2}{K_{11} K_{22} - 2K_{12}} α2new, unc​α2old​y2​⋅K11​K22​−2K12​E1​−E2​​ 其中 E 1 E_1 E1​ 和 E 2 E_2 E2​ 是预测误差 K 11 K_{11} K11​、 K 22 K_{22} K22​ 和 K 12 K_{12} K12​ 是核函数的值。 对 α 2 \alpha_2 α2​ 进行截断未约束的 α 2 \alpha_2 α2​ 值可能不满足约束 0 ≤ α 2 ≤ C 0 \leq \alpha_2 \leq C 0≤α2​≤C因此需要将其截断为一个满足约束条件的值。 更新 α 1 \alpha_1 α1​由于 α 1 \alpha_1 α1​ 和 α 2 \alpha_2 α2​ 之间有线性约束关系更新 α 2 \alpha_2 α2​ 后可以直接更新 α 1 \alpha_1 α1​。 更新偏置项 b b b每次更新 α 1 \alpha_1 α1​ 和 α 2 \alpha_2 α2​ 后需要更新偏置项 b b b以保证分类超平面的正确性。 SMO 算法的优势 局部优化效率高每次只需要优化两个变量计算非常快。通过反复优化不同的拉格朗日乘子对SMO 可以快速逼近最优解。 避免矩阵操作传统的二次规划方法通常需要对大矩阵进行操作而 SMO 通过只处理两个变量避免了对整个矩阵的求解减少了计算复杂度。 适用于大规模问题SMO 算法能够很好地处理大规模的数据集尤其是当样本数量很大时传统方法难以处理的问题SMO 也能有效求解。 SMO 算法的局限 选择变量的策略SMO 的效率在很大程度上取决于选择哪两个乘子来进行优化。如果选择策略不好算法可能收敛较慢。对初始点敏感SMO 对初始值的选择较为敏感不同的初始值可能导致不同的收敛速度。 总结 SMO 是一种非常有效的算法特别适合用于大规模支持向量机的训练。通过不断地优化两个拉格朗日乘子它极大地简化了支持向量机的二次规划问题。由于每次只处理两个变量SMO 避免了传统方法中的矩阵运算因此能够处理较大的数据集并且计算速度很快。
http://www.dnsts.com.cn/news/8005.html

相关文章:

  • 福建有没有网站做鞋子一件代发有趣的网站有哪些
  • 网上做网站网站代理赚钱吗网站转备案
  • 90设计网站官网首页品牌logo查询网
  • 公司网站建设方案书例文学校网站首页
  • 做网站的模板软件项目开发的阶段和任务
  • 一般做外单的有哪些网站手机域名免费注册
  • 东莞网站建设-拥有多年专业广州做网站的
  • 南通网站建设 南大街抖音引流推广怎么做
  • 东莞网站建设少儿托管wordpress图片管理
  • 怎么找一家公司的网站网页设计的首页版式
  • 网站制作算什么费用找推网
  • 国建设网站西安行业网站制作
  • 网站后台设置关键词在哪设杭州公司做网站
  • 一级a做爰片免费网站下载设计公司装修效果图
  • 做营销网站建设价格wordpress+主题+引入js
  • 买网站不给我备案广州网站站建设培训
  • 邯郸网站建设兼职工业企业网站建设费
  • 做打牌的网站怎么办ps如何做psd模板下载网站
  • 《网站建设与维护》讲义简约大气展厅效果图
  • 正能量软件不良网站直播wordpress 跳转特效
  • 欢迎访问陕西省交通建设集团公司网站家具网站asp
  • 兰甘肃网站建设clouder认证考试网站建设
  • 一个新的网站怎么做优化一家专业做导购的网站
  • php 电子商务网站建设做网站美工工资多少
  • 佛山专业网站设计公司wordpress做简单的商城
  • php网站模块修改绍兴网站专业制作
  • 北京网站手机站建设公司电话宁波建设集团几个分公司
  • 分析竞争对手网站建设摩托车官网中国
  • 360建设网站免费做黑彩票的网站赚钱吗
  • 福田网站建设公司乐云seo评价一个网站设计的好坏