当前位置: 首页 > news >正文

网站更改logo中国互联网协会网贷投诉平台

网站更改logo,中国互联网协会网贷投诉平台,网上推广方法,盐城做企业网站的价格目录 个体与集成BoostingBagging与随机森林Bagging随机森林 结合策略平均法投票法学习法 个体与集成 定义#xff1a;集成学习#xff0c;也叫多分类器系统、基于委员会的学习等#xff0c;它是一种通过结合多个学习器来构建一个更强大的学习器的技术。如下图所示 在这里集成学习也叫多分类器系统、基于委员会的学习等它是一种通过结合多个学习器来构建一个更强大的学习器的技术。如下图所示 在这里个体学习器通常由一个现有的学习算法从训练数据产生。集成学习通过整合多个模型的预测结果可以提高整体的预测准确性和泛化能力。我们希望通过将多个学习器结合在一起能获得比其中任意一个学习器还要好的性能这是我们要研究的重点比如举下面一个例子。 遵从少数服从多数原则在a中每个分类器都只有66.6% 的精度但集成学习却达到了 100%;在b中三个分类器没有差别集成之后性能没有提高;在c中每个分类器的精度都只有33.3%集成学习的结果变得更糟。故要获得好的集成个体学习器应好而不同即要具有准确性。 事实上如何产生并结合好而不同的个体学习器恰是集成学习研究的核心。根据个体学习器的生成方式目前的集成学习方法大致可分为两大类第一类是个体学习器问存在强依赖关系、必须串行生成的序列化方法第二类是个体学习器间不存在强依赖关系、可同时生成的并行化方法。前者的代表是Boosting后者的代表是Bagging和随机森林。下面介绍一下这两者。 Boosting Boosting是一族集成学习方法通过顺序训练多个弱学习器每个弱学习器都尝试修正前一个学习器的错误从而逐步提高整体模型的性能。 Boosting族算法最著名的代表是AdaBoost其算法流程如下图所示 Boosting 算法要求基学习器能对特定的数据分布进行学习这可通过重赋权法 (re-weighting)实施即在训练过程的每一轮中根据样本分布为每个训练样本重新赋予一个权重。若某些样本无法赋权则对该样本实施“重采样法”即对训练集重新采样再对采样后的样本集进行训练。 从偏差–方差分解角度看Boosting 主要关注降低偏差因此 Boosting能基于泛化性能相当弱的学习器构建出很强的集成。 Bagging与随机森林 Bagging Bagging是一种并行集成学习方法通过随机抽样训练集合构建多个基学习器具体流程是给定包含m个样本的数据集我们先随机取出一个样本放入采样集中再把该样本放回初始数据集经过m 次随机采样操作我们得到含m个样本的采样集照这样我们可采样出T个含m个训练样本的采样集然后基于每个采样集训练出一个基学习器再将这些基学习器进行结合.然后将它们的预测结果进行平均或投票来得到最终预测 Bagging通常对分类任务使用简单投票法对回归任务使用简单平均法。 Bagging算法描述如下 Bagging是一个很高效的集成学习算法并且与标准 AdaBoost 只适用于二分类任务不同Bagging 能不经修改地用于多分类、回归等任务。 随机森林 随机森林是Bagging的一个典型代表它在使用决策树作为基学习器的基础上进一步在决策树的训练过程中引入了随机属性选择。具体来说在随机森林中对基决策树的每个结点先从该结点的属性集合中随机选择一个包含k个属性的子集然后再从这个子集中选择一个最优属性用于划分。 从上面图片可以看出Bagging集成规模越大其划分效果就相对越好。 随机森林的收敛性与 Bagging相似如下图所示随机森林的起始性能往往相对较差 特别是在集成中只包含一个基学习器时。随着个体学习器数目的增加随机森林通常会收敛到更低的泛化误差。 结合策略 学习器结合有如下好处 1从统计的方面来看结合多个学习器可以避免相关风险比如使用单学习器可能因误选而导致泛化性能不佳 2从计算的方面来看通过多次运行之后进行结合 可降低陷入糟糕局部极小点的风险 3从表示的方面来看通过结合多个学习器由于相应的假设空间有所扩大有可能学得更好的近似。 下图给出了一个直观示意图 下面介绍几种对基学习器进行结合的常见策略 平均法 简单平均法即对所有基学习器的输出进行加和取平均值, H ( x ) 1 T ∑ i 1 T h i ( x ) H\left ( x \right ) \frac{1}{T} \sum_{i1}^{T} h_{i} \left ( x \right ) H(x)T1​∑i1T​hi​(x) 加权平均法 H ( x ) ∑ i 1 T w i h i ( x ) H\left ( x \right ) \sum_{i1}^{T} w_{i} h_{i} \left ( x \right ) H(x)∑i1T​wi​hi​(x),其中 w i w_{i} wi​是个体学习器 h i h_{i} hi​通常要求 w i ≥ 0 w_{i} \ge 0 wi​≥0和 ∑ i 1 T w i 1 \sum_{i1}^{T} w_{i} 1 ∑i1T​wi​1 一般而言在个体学习器性能相差较大时宜使用加权平均法,而在个体学习器性能相近时宜使用简单平均法. 投票法 绝大多数投票法若某标记得票过半数则预测为该标记;否则拒绝预测。 相对多数投票法即预测为得票最多的标记若同时有多个标记获最高票则从中随机选取一个。 学习法 当训练数据数量很庞大时最好使用学习法即通过另一个学习器来进行结合。其中Stacking是学习法的代表其流程如下 Stacking 先从初始数据集训练出初级学习器然后生成一个新数据集用于训练次级学习器。在这个新数据集中初级学习器的输出被当作样例输入特征而初始样本的标记仍被当作样例标记。 在训练阶段次级训练集是利用初级学习器产生的若直接用初级学习器的训练集来产生次级训练集则过拟合风险会比较大;因此一般是通过使用交叉验证或留一法这样的方式用训练初级学习器未使用的样本来产生次级学习器的训练样本。
http://www.dnsts.com.cn/news/135160.html

相关文章:

  • 系统下载网站源码百度推广获客
  • 可以用电脑做网站主机吗泰州自助建站软件
  • 网站开发 上海音视频娱乐网站开发商
  • python爬虫做网站wordpress显示大图
  • 遵义网站制作外包餐饮管理培训课程
  • 枣庄做网站的公司网站建设佰金手指科杰二五
  • 旅游做攻略的网站有哪些佛山建设
  • 住房和城乡建设部网站打不开我想找电商合作
  • 营销方案和销售思路地方房地产网站seo实战案例分享
  • 南京做网站品牌wordpress 右侧广告
  • 首都产业建设集团网站大型网站建设济南兴田德润o评价
  • 南京建设银行官方网站开发网站公司地址
  • 广东中山建设信息网站滨州做网站优化
  • 如何做招聘网站的数据分析wordpress全站开启ssl
  • 网站建设增城礼县住房和城乡建设局网站
  • 物流网站模板下载武钢建工集团建设分公司网站
  • 博罗做网站技术做网站的大型公司
  • 可视化网站开发平台wordpress百度云链接地址
  • 电子商务网站开发课程简介营销型网站的分类
  • 北京个人网站公司网页首页设计代码
  • 网站运营管理报告总结铁岭做网站公司信息
  • 格子铺网站建设方案在线观看的免费
  • 利用高权重网站做关键词5g对网站建设的影响
  • 大型企业网站欣赏wordpress 实用主题
  • 个人摄影网站制作山东网站建设xywlcn
  • 贵阳营销型网站建设标签下载 wordpress
  • 合肥做网站哪家好温州市网络公司网站建设公司
  • 增城微信网站建设seo实战密码pdf
  • 做网站的毕设用什么软件申请网站到哪里
  • 深泽网站建设怎么制作网站