标签:23 decision newRowX 学习 print import csv clf 决策树
具体参考决策树基本原理和讲解:
信息熵的学习参考:链接:https://pan.baidu.com/s/1_AF7xoUhm3XgcYGfGrk5ng
提取码:kztu
决策树的学习参考:https://sklearn.apachecn.org/docs/master/11.html
代码使用的csv参考:链接:https://pan.baidu.com/s/1IxbFuwET7qMbJyEu76WROg
提取码:g7f7
决策树代码
from sklearn import tree
from sklearn.feature_extraction import DictVectorizer
from sklearn import preprocessing
import pandas as pb
import glob
import numpy as np
file_csv=glob.glob(r"F:\DTree\*.csv")
total_decison=[]
list_decision=[]
label_decision=[]
for csv in file_csv:
df=pb.read_csv(csv,index_col=False)
for indexs in df.index:
if indexs==0:
headInfo = list(df.head(indexs))[1:-1]
continue
label_decision.append(df.iloc[indexs,-1])
list_decision.append(list(df.iloc[indexs,1:-1]))
for item in list_decision:
dict_dec = {}
for index,it in enumerate(item):
dict_dec[headInfo[index]]=it
total_decison.append(dict_dec)
print(total_decison)
print(label_decision)
vec=DictVectorizer()
dumpx=vec.fit_transform(total_decison).toarray()
print("dumpx",str(dumpx))
lb=preprocessing.LabelBinarizer()
dumpy=lb.fit_transform(label_decision)
print("dumpy",str(dumpy))
clf=tree.DecisionTreeClassifier(criterion='entropy')
clf=clf.fit(dumpx,dumpy)
print(str(clf))
with open("F:/a.dot","w") as f:
f=tree.export_graphviz(clf,feature_names=vec.get_feature_names(),out_file=f)
newRowX = dumpx[0, :]
print("oneRowX: " + str(newRowX))
newRowX[0] = 1
newRowX[2] = 0
print("newRowX: " + str(newRowX))
predictedY = clf.predict(np.array(newRowX).reshape(1, -1))
print("predictedY: " + str(predictedY))
标签:23,decision,newRowX,学习,print,import,csv,clf,决策树 来源: https://blog.csdn.net/sxj731533730/article/details/107298434
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。