标签:Decision Tree 离散 子集 决策树 方法 节点 属性
目录
一、决策树
伪代码实现:
- 将数据集的最佳属性放在树根上。
- 将训练集拆分为子集。子集的创建方式应确保每个子集包含具有相同属性值的数据。
- 对每个子集重复步骤1和步骤2,直到树的所有分支中找到叶节点。
创建决策树时的假设:
- 开始时,整个训练集被视为根。
- 特征值最好是离散的。如果值是连续的,则在构建模型之前对其进行离散化。
- 记录是基于属性值递归分布的。
- 将属性作为树的根或内部节点的顺序是通过使用某种统计方法来完成的。
常用的属性选择方法:
- 信息增益
标签:Decision,Tree,离散,子集,决策树,方法,节点,属性 来源: https://blog.csdn.net/didi_ya/article/details/120241966
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。