标签:python random-forest xgboost kaggle
我是所有这些方法的新手,我试图得到一个简单的答案,或者如果有人可以指导我在网上的某个地方进行高级别的解释.我的谷歌搜索只返回了kaggle示例代码.
extratree和randomforrest基本相同吗? xgboost在为任何特定树选择特征时使用增强,即对特征进行采样.但那么其他两种算法如何选择这些功能呢?
谢谢!
解决方法:
额外的树(ET)又名.非常随机的树与随机森林(RF)非常相似.这两种方法都是装袋方法,聚合了一些完全成长的决策树. RF只会尝试拆分,例如三分之一的功能,但评估这些功能中的任何可能的断点并选择最佳.但是,ET只会评估一个随机的几个断点并选择最好的断点. ET可以将样本引导到每棵树或使用所有样本. RF必须使用bootstrap才能正常工作.
xgboost是渐变增强的实现,可以与决策树一起使用,典型的较小树.训练每棵树以校正先前训练的树的残差.梯度增强可能更难以训练,但可以实现比RF更低的模型偏差.对于噪声数据,装袋可能是最有希望的.对于低噪声和复杂的数据结构,提升可能是最有希望的.
标签:python,random-forest,xgboost,kaggle 来源: https://codeday.me/bug/20190608/1201496.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。