当前位置: 首页 > news >正文

wap 网站 开发创建全国文明城市手抄报

wap 网站 开发,创建全国文明城市手抄报,比较多人用什么网站做推广,播放视频网站怎么做集成学习 前言Bias and Variance过拟合#xff08;overfitting#xff09;与欠拟合#xff08;underfitting#xff09;集成学习为什么有效#xff1f;Blending 模型集成Stakcing 模型集成Bagging模型集成Bagging 模型集成算法流程#xff1a;Boosting模型集成作业 前言 … 集成学习 前言Bias and Variance过拟合overfitting与欠拟合underfitting集成学习为什么有效Blending 模型集成Stakcing 模型集成Bagging模型集成Bagging 模型集成算法流程Boosting模型集成作业 前言 比赛中集成学习但要用好模型集成可能并不是那么简单本文将讨论讨论 模型总体误差分解过拟合欠拟合为什么集成学习能降低总体误差BlendingStackingBaggingBoosting Bias and Variance 假设有训练数据集 D D D包含样本点 ( x 1 , y 1 ) , … , ( x n , y n ) (x_1, y_1), \ldots, (x_n, y_n) (x1​,y1​),…,(xn​,yn​) 存在一个带噪音的真实函数 y f ( x ) ϵ y f(x) \epsilon yf(x)ϵ噪音 ϵ \epsilon ϵ 均值为 0 0 0方差为 σ 2 \sigma^2 σ2我们希望通过数据集 D D D 训练模型 f ^ ( x ; D ) \hat{f}(x; D) f^​(x;D) 尽可能逼近真实函数 f f f使得任意训练数据集以外的样本误差最小化即最小化误差函数 MSE E D , ϵ [ ( y − f ^ ( x ; D ) ) 2 ] ( Bias D [ f ^ ( x ; D ) ] ) 2 Var D [ f ^ ( x ; D ) ] σ 2 \mathbb{E}_{D,\epsilon}\left[(y - \hat{f}(x; D))^2\right] \left(\text{Bias}_D\left[\hat{f}(x; D)\right]\right)^2 \text{Var}_D\left[\hat{f}(x; D)\right] \sigma^2 ED,ϵ​[(y−f^​(x;D))2](BiasD​[f^​(x;D)])2VarD​[f^​(x;D)]σ2 where 偏差 (bias) 部分 Bias D [ f ^ ( x ; D ) ] E D [ f ^ ( x ; D ) ] − f ( x ) \text{Bias}_D\left[\hat{f}(x; D)\right] \mathbb{E}_D\left[\hat{f}(x; D)\right] - f(x) BiasD​[f^​(x;D)]ED​[f^​(x;D)]−f(x) and 方差 (variance) 部分 Var D [ f ^ ( x ; D ) ] E D [ ( E D [ f ^ ( x ; D ) ] − f ^ ( x ; D ) ) 2 ] . \text{Var}_D\left[\hat{f}(x; D)\right] \mathbb{E}_D\left[\left(\mathbb{E}_D[\hat{f}(x; D)] - \hat{f}(x; D)\right)^2\right]. VarD​[f^​(x;D)]ED​[(ED​[f^​(x;D)]−f^​(x;D))2]. 这里我们已经通过公式推导将目标函数分解成三项 a) 偏差项 (bias) 是采用不同训练数据集 D D D 时模型预测和真值的偏差可以看成由不同的模型假设带来的误差。比如真实函数是一个非线性函数 f f f而我们采用线性回归模型 f ^ \hat{f} f^​ 进行建模由于这一假设估计我们的线性模型 f ^ \hat{f} f^​ 将存在误差。通常越复杂的模型偏差更小复杂模型的假设空间更大对真实函数逼近能力更强偏差更小。 b) 方差项 (variance) 为采用不同训练数据集 D D D 训练模型时模型对同一个样本预测值的波动大小通常越复杂的模型越敏感这意味着采用不同数据训练的模型差异会很大导致对同一个样本预测值的波动较大即方差很大。 c) 为随机误差无法预测。 过拟合overfitting与欠拟合underfitting Overfitting当我们的模型太复杂比如很深的决策树、非常多的特征工程、大型深度学习网络等模型偏差较低方差较大Underfitting当我们的模型太简单线性回归、无特征工程、浅层感知机等模型偏差较大方差较小过拟合和欠拟合都不是我们想要的模型状态如下图所示最好的状态时偏差和方差都处于比较小的均衡状态这时候总体误差最小。 集成学习为什么有效 集成学习指建模时训练多个基模型预测时候融合多个模型预测结果降低总体误差的学习方法。集成学习方法有很多总体上可以分为三类StackingBagging 及 Boosting. 降低模型方差 可以看出不管是哪种模型集成方法都有一个共同特点融合多个模型预测结果。由统计知识可知多个独立同分布随机变量满足 设 X 1 , X 2 , … , X n X_1, X_2, \ldots, X_n X1​,X2​,…,Xn​ 是独立同分布的满足 E ( X i ) μ , D ( X i ) σ 2 , i 1 , 2 , 3 , … , n E(X_i) \mu, D(X_i) \sigma^2, i 1, 2, 3, \ldots, n E(Xi​)μ,D(Xi​)σ2,i1,2,3,…,n 则随机变量 X ‾ 1 n ∑ i 1 n X i \overline{X} \frac{1}{n}\sum_{i1}^n X_i Xn1​∑i1n​Xi​满足 E ( X ‾ ) μ , D ( X ‾ ) σ 2 n E(\overline{X}) \mu, D(\overline{X}) \frac{\sigma^2}{n} E(X)μ,D(X)nσ2​。 下证 E ( X ‾ ) E ( 1 n ∑ i 1 n X i ) 1 n ∑ i 1 n E ( X i ) 1 n ⋅ n μ μ E(\overline{X}) E\left(\frac{1}{n} \sum_{i1}^n X_i\right) \frac{1}{n} \sum_{i1}^n E(X_i) \frac{1}{n} \cdot n\mu \mu E(X)E(n1​i1∑n​Xi​)n1​i1∑n​E(Xi​)n1​⋅nμμ D ( X ‾ ) D ( 1 n ∑ i 1 n X i ) 1 n 2 ∑ i 1 n D ( X i ) 1 n 2 ⋅ n σ 2 σ 2 n D(\overline{X}) D\left(\frac{1}{n} \sum_{i1}^n X_i\right) \frac{1}{n^2} \sum_{i1}^n D(X_i) \frac{1}{n^2} \cdot n \sigma^2 \frac{\sigma^2}{n} D(X)D(n1​i1∑n​Xi​)n21​i1∑n​D(Xi​)n21​⋅nσ2nσ2​ 其中随机变量的简单算术平均可以看成模型融合结果只要不同模型预测结果满足独立同分布模型预测方差将从原本的 σ 2 \sigma^2 σ2 变为 σ 2 n \frac{\sigma^2}{n} nσ2​大幅度降低了总体误差中的方差部分。当然这是最理想情况了一般来说模型间都存在一定的相关性相关性越弱融合后预测方差越低。 因此在集成学习中构造模型间的差异化是重中之重。在 bagging 中我们通过采用不同的训练数据构造差异化。 降低模型偏差 从上图可以看出融合多个弱模型相对概念指复杂度比较低的模型可以降低模型偏差获得更高的模型精度。 Blending 模型集成 将数据划分为训练集和验证集 在训练集上训练模型m1, m2, m3, … 在验证集上预测得到模型m1, m2, m3, …的预测结果 使用模型验证集预测结果作为特征训练分类例如逻辑回归或回归例如线性回归模型也可以人工指定权重对模型m1, m2, m3, …的预测结果进行加权平均。例如在分类问题中将m1, m2, m3, …的预测概率进行加权权重和为1。 Stakcing 模型集成 Stacking 模型集成方法和 Blending 方法非常类似通过一个 meta model 对不同类别的基模型预测结果进行集成。Stacking 采用的基模型通常是不同种类的算法流程如下 将数据集划分成3部分subset1, subset2, subset3。 在 subset1 上训练不同种类的基模型比如逻辑回归、决策树等。 在 subset2 上基模型进行预测。 在 subset2 上使用第3步中的预测结果作为输入训练一个 meta 模型通常 meta 模型我们尽量采用复杂度较低的简单模型比如线性回归或逻辑回归避免过拟合。 在 subset3 上基模型进行预测预测结果输入到 meta 模型进行预测得到最终预测结果测试模型精度。 Stacking 简化变体 Average / Weighted 很多时候为了简化 stacking 模型集成或降低过拟合我们不需要训练 meta 模型可以直接将基模型预测值进行平均或加权平均即可。这时候我们的工作流变成 将数据集划分成两部分subset1 和 subset2。在 subset1 上训练不同种类的基模型比如逻辑回归、决策树等。在 subset2 使用基模型进行预测并对所有基模型预测的结果计算平均值或进行加权平均得到最终预测结果测试模型精度。 如果采用加权平均一般建议精度更高的模型更高的权重。例如有模型 A/B/C精度模型 A B C可以给予权重 A: 0.5, B: 0.3, C: 0.2。如果你不想调整权重而求最优权重这时候可以等价于引入一个线性模型在搜索线性模型参数时来防止过拟合。这个时候建议采用完整 stacking 模型集成方案。 需要注意的是在进行分类问题建模时通常进行概率融合。例如在使用逻辑回归进行分类时使用 predict_proba 方法可以得到预测概率结果预测结果为 N x 2 维度2 为类别数量分别代表输入样本和正确类别的概率。概率值融合后使用 np.argmax(pred_result, axis1) 即可得到每个样本最高概率的类别。 from sklearn.datasets import load_irisfrom sklearn.linear_model import LogisticRegressionX, y load_iris(return_X_yTrue)clf LogisticRegression(random_state0).fit(X, y)clf.predict(X[:2, :]) array([0, 0])clf.predict_proba(X[:2, :]) array([[9.8...e-01, 1.8...e-02, 1.4...e-08],[9.7...e-01, 2.8...e-02, 2.2...e-08]])clf.score(X, y) 0.97Bagging模型集成 Bagging 模型集成算法流程 通过 放回抽样 得到多个训练集在不同的训练集上训练基模型一般采用相同类型的模型对模型预测结果进行融合 一般的我们将使用决策树作为基模型的 Bagging 集成学习方法叫做 随机森林同时由于决策树本身是一种拟合能力比较强的模型为了最大化模型差异化在训练每棵决策树时进行特征采样使得不同子模型使用的数据集不仅样本不同同时使用的特征也不完全一致。在 sklearn 库中已经有成熟的随机森林实现可以直接调用。 from sklearn.ensemble import RandomForestClassifierRandomForestClassifier(n_estimators100,max_depthNone,max_featuresauto,max_leaf_nodesNone, )参数解释 参数解释n_estimators设置基模型数量max_depth树的最大深度max_features寻找最佳分割时要考虑的特征数量max_leaf_nodes允许的最大叶子节点数量 随机森林的特点 并行的集成框架适合并行训练训练速度快。特征随机采样使得在样本特征维度很高的时候仍然能有效的训练模型。数据集随机采样 特征随机采样的引入使得随机森林的基模型能构造较大的差异化降低融合模型方差提升泛化能力避免过拟合。因为 Bagging 主要降低模型方差因此一般选择偏差较小的大型决策树深度较深叶子节点数量高作为基模型来平衡偏差和方差。 Boosting模型集成 与Bagging相反Boosting采用串行的集成框架常见的算法流程如下图所示 从数据集中均匀采样一个子集在子集上训练模型并对整个数据集进行预测计算每个样本误差根据误差大小对数据集样本赋权误差越大权重越大并使用新的权重对数据集进行采样得到一个新的子集重复24直到达到预设的迭代次数 Boosting集成学习通过迭代训练逐步降低模型偏差因此我们一般采用比较简单的基模型浅层决策树 避免过拟合发生。 sklearn已经实现了Boosting集成学习方法可以通过 sklearn.ensemble.AdaBoostClassifier直接调用使用方法和参数与随机森林类似。 Boosting模型集成特点串行集成方法比较难并行化速度较慢能有效降低偏差适合采用简单的基模型 作业 回答在进行平均融合时基模型具有怎样的特点能够最大化提升模型性能在链接: Kaggle泰坦尼克竞赛中使用逻辑回归、决策数、随机森林建模对模型预测概率采用加权平均的方式进行模型融合观察融合效果是否较单模型有提升
http://www.dnsts.com.cn/news/279907.html

相关文章:

  • 移动网站虚拟主机如何做一份网站推广方案
  • 株洲网站建设费用企业网站建设变相收取等级保护费
  • 谷歌上怎样做网站门户网站的盈利模式
  • .net网站开发源码建企业网站价格
  • 大型网站开发pdf做网站怎么收费的
  • 网站访问很慢怎么才能设计好一个网站
  • 吴忠网站建设多少钱宁波seo搜索优化费用
  • 做视频网站利润如何处理南京制作网页设计
  • 哪些网站可以免费做代码做网站总结
  • 构建网站空间了解深圳网站定制开发
  • 企业网站建设找哪家乐清市腾速网络科技有限公司
  • 网站优化seo网站架构优化茶叶网站flash模板免费下载
  • 网站集约化建设情况汇报建设专门网站 强化信息宣传
  • 北京市环境建设办公室网站WordPress免签约支付插件
  • 建立收费网站室内设计学校网站
  • 怎么在云服务器上搭建网站做网站费用多少钱
  • 免费网站注册永久猎上网登陆官方网站
  • 湖北网站制作公司的联系方式wordpress 编辑器增强
  • 微信公众号封面制作网站静态网站没有后台
  • 网站开发方案设计怎样查网站和增加网站
  • 网站首页没被收录档案信息网站建设遵循什么原则
  • 建立网站需要注册公司吗重庆品质网站建设销售
  • 中国建设网站首页搜索引擎yandex入口
  • 婚纱网站建设学院网页设计模板html代码
  • 营销型网站(易网拓)江苏网站建设教程
  • 网站建设方面的文章建设网站平台需要什么硬件配置
  • 电子商务网站硬件需求怎样在网上做环保设备网站
  • 网站建设商虎小程序如何在家做电商
  • 专业俄语网站设计重庆室内设计公司
  • 凡科网建站怎么样做网站如何购买服务器吗