当前位置: 首页 > news >正文

茶网站建设网站制作创业

茶网站建设,网站制作创业,网站都需要什么类别,建一个区域网站需要多少资金本篇主要介绍几种其他较常用的模型解释性方法。 1. Permutation Feature Importance(PFI) 1.1 算法原理 置换特征重要性(Permutation Feature Importance)的概念很简单#xff0c;其衡量特征重要性的方法如下#xff1a;计算特征改变后模型预测误差的增加。如果打乱该特征的…  本篇主要介绍几种其他较常用的模型解释性方法。 1. Permutation Feature Importance(PFI) 1.1 算法原理 置换特征重要性(Permutation Feature Importance)的概念很简单其衡量特征重要性的方法如下计算特征改变后模型预测误差的增加。如果打乱该特征的值增加了模型的误差那么一个特征就是重要的如果打乱之后模型误差不变那就认为该特征不重要。 1.2 Python实现 使用Wine酒数据来训练模型。其模型训练代码如下 import pandas as pd import numpy as np from sklearn.datasets import load_wine from sklearn.ensemble import RandomForestClassifier from sklearn.metrics import accuracy_score from matplotlib import pyplot as plt import seaborn as snswineload_wine() Xpd.DataFrame(wine.data,columnswine.feature_names) ywine.targetrfcRandomForestClassifier(max_depth4,random_state0) rfc.fit(X,y) y_predrfc.predict(X)accuracyaccuracy_score(y,y_pred)1.2.1 sklearn包实现 ems;常用的机器学习包sklearn中也集成了这种方法但是需要单独写代码来实现可视化。其具体代码如下 from sklearn.inspection import permutation_importance resultpermutation_importance(rfc,X,y,n_repeats10,random_state42)featpd.DataFrame(np.hstack(([[col] for col in wine.feature_names],[[item] for item in result[importances_mean]])),columns[Feat,Imp]) feat[Imp]feat[Imp].astype(float) featfeat.sort_values(Imp,ascendingFalse) sns.barplot(xImp,yFeat,datafeat) plt.show()其结果如下 1.2.2 eli5包实现 import eli5 from eli5.sklearn import PermutationImportance permPermutationImportance(rfc,n_iter10) perm.fit(X,y) eli5.show_weights(perm,feature_nameswine.feature_names)其结果如下 1.3 参考资料 https://blog.csdn.net/weixin_39653948/article/details/110731460https://blog.csdn.net/qq_41185868/article/details/126046956 2 Partial Dependency Plots(部分依赖图,PDP) 2.1 算法原理 部分依赖图(PDP)展示了一个或两个特征对机器学习模型预测结果的边际效应。部分依赖图可以显示目标和特征之间的关系是线性的、单调的还是更复杂的关系。PDP假设所有特征两两不相关。其具体步骤如下 训练一个机器学习模型(假设特征依次为F1…Fn,yF_{1} \dots F_{n},yF1​…Fn​,y为目标变量);假设需要探究特征F1F_{1}F1​对目标变量yyy的边际效应;特征F1F_{1}F1​的取值依次为(a1,a2,…,an)(a_{1},a_{2},\dots,a_{n})(a1​,a2​,…,an​); 依次用a1,a2,…,ana_{1},a_{2},\dots,a_{n}a1​,a2​,…,an​代替F1F_{1}F1​列其他特征保持不变。利用训练好的模型对这些数据进行预测计算所有样本的预测平均值。以特征F1F_{1}F1​的不同取值为X轴其对应的预测样本平均值为Y轴进行作图即可。 2.2 Python实现 2.2.1 安装PDPbox包 使用如下代码直接安装PDPbox包的时候经常报错。报错的原因在于matplotlib V3.1.1无法正确安装。 pip install PDPbox在网上查了很多资料也没有解决所以在相关网站https://pypi.tuna.tsinghua.edu.cn/simple/pdpbox/ 直接下载了pdpbox的压缩包解压之后将以下两个文件直接放到python安装路径的lib/site-packages文件夹下即可。 2.2.2 PDPbox实现 单变量的边际效用 from pdpbox import pdppdp_goalspdp.pdp_isolate(modelrfc,datasetX,model_featureswine.feature_names,featurewine.feature_names[0]) pdp.pdp_plot(pdp_goals,wine.feature_names[0]) plt.show()交叉特征的边际效用 pdp_goalspdp.pdp_interact(modelrfc,datasetX,model_featureswine.feature_names,featureswine.feature_names[3:5]) pdp.pdp_interact_plot(pdp_goals,feature_nameswine.feature_names[3:5]) plt.show()2.2.3 sklearn实现 除了使用专用的PDPbox箱之外还可以使用sklearn包来实现部分依赖图。具体使用方法如下 from sklearn.inspection import plot_partial_dependence plot_partial_dependence(rfc,X,featureswine.feature_names[0:1],feature_nameswine.feature_names,target0) plt.show()plot_partial_dependence(rfc,X,featureswine.feature_names[3:5],feature_nameswine.feature_names,target0) plt.show()其结果如下(这里仅显示第二组结果) 3 Individual Conditional Expectation(ICE) 3.1 算法原理 个体条件期望计算方法与PDP类似它刻画的是每个个体的预测值与单一变量之间的关系消除了非均匀效应的影响。 3.2 参考资料 https://blog.csdn.net/sinat_26917383/article/details/115669705
http://www.dnsts.com.cn/news/67314.html

相关文章:

  • 5年网站seo优化公司丹东建设工程信息网站
  • 智能模板网站建设价格眉山手机网站建设
  • 网站模版与模板的使用广告专业的前景和就业方向
  • 浏阳做网站推荐广州那家做网站最好
  • 网站建设怎么进行一级域名申请安安网站建设
  • 做蛋糕网站的优点企业网站建设公司选择分析
  • 网页制作门户网站案例中国农业建设中心网站
  • 很有风格的网站有哪些网页制作软件有那些
  • 自助建站系统搭建网站蒙特网公司做什么的
  • 关于数据库的网站开发上传设计作品的网站
  • 建筑公司网站电工网站建设视频教程
  • 建设通和天眼查网站网站建设图片轮播
  • 邢台精品网站建设建站管理后台
  • 网站系统分类网络营销案例图文ppt
  • 换友情链接的网站珠海易注册app下载
  • 旅游网站设计策划书页游排行榜前十名网络游戏
  • 文安网站建设如何将优酷视频上传到自己网站
  • 山东飞鸿建设集团网站wordpress安全设置方法
  • 网站充值 下模板顺的品牌网站建设
  • python做的网站如何部署智能软件开发专业
  • wordpress采集插件 免费下载东莞整站优化火速公司
  • 网站的域名和ip地址如何重新解析建设信用中国网站
  • 贵阳网站建设专家域名注册后网站建设
  • 怎么做网站的防盗链网站建设编程语言
  • 微信公众号商城怎么制作南京seo公司教程
  • 宝塔搭建wordpress网站学做网站前景
  • 网站网页策略wordpress动态二维码
  • 做企业商城网站要多少钱邯郸网站建设选哪家好
  • 广西建设学院网站房产信息查询平台
  • 网站推广有用吗?家纺 网站模版