宝山网站建设推广,购物链接,建设网站的网站公告是什么,做网站搭建环境最近做项目遇到的数据集中#xff0c;有许多高维类别特征。catboost是可以直接指定categorical_columns的【直接进行ordered TS编码】#xff0c;但是XGboost和随机森林甚至决策树都没有这个接口。但是在学习决策树的时候#xff08;无论是ID3、C4.5还是CART#xff09;有许多高维类别特征。catboost是可以直接指定categorical_columns的【直接进行ordered TS编码】但是XGboost和随机森林甚至决策树都没有这个接口。但是在学习决策树的时候无论是ID3、C4.5还是CART肯定都知道决策树可以直接天然处理离散特征那难道sklearn的决策树可以自己判断哪些特征是离散or连续
决策树怎么处理连续特征
首先要明确分类树和回归树只是看label值是类别型还是连续型和特征中是离散还是连续没有关系。并不是说CART回归树不能使用离散的特征只是CART回归树里并不使用gini系数来计算增益。【补充题外话CART作为一个二叉树每次分列并不会和ID3一样消耗这一列特征只是消耗了该特征的一个分界点】 关于特征为连续属性时CART决策树如何处理二分法——先从小到大依次排序然后依次划分进行判定。具体可以参考这篇博客。
sklearn里的决策树怎么处理类别特征的
答案是——不处理。在sklearn实现的CART树中是用同一种方式去处理离散与连续的特征的即把离散的特征也都当做连续的处理了只能处理连续特征 和 做编码成数字的离散特征。 可以看这个问题我的理解是sklearn为了速度对CART的原来算法做了一定的改进不再按照原来的方法处理离散特征而是都统一成连续特征来处理了【所以没有categorical_columns接口】。 其实理论上来说XGB是可以用离散变量的毕竟增益只和结点上的样本有关特征只是决定树的结构
解决方案
如果想使用DT、RF、XGB离散特征需要人为进行处理。可以看这个博客对类别特征进行编码。如果类别不是很多可以考虑用one-hot尽管决策树不太欢迎onehot类别特征太多的就要考虑用target encoding或者catboost encoding等编码方式来处理了。 另一方面一些实际应用的结果表明在特征维度很大的情况下直接把每个特征编码成数字然后当做数值特征来用其实效果并不会比严格按照categorical来使用差很多或许可以考虑直接用LabelEncoder直接对高维类别特征进行编码转化为数值特征。 或者考虑换LGBM、CatBoost