ICode9

精准搜索请尝试: 精确搜索
  • 鸢尾花决策树分类及可视化2020-01-16 16:44:28

    鸢尾花数据集简介 Iris数据集作为入门经典数据集。Iris数据集是常用的分类实验数据集,早在1936年,模式识别的先驱Fisher就在论文The use of multiple measurements in taxonomic problems中使用了它 (直至今日该论文仍然被频繁引用)。 Iris也称鸢尾花卉数据集,是一类多重变量分

  • K近邻 (KNN)算法的原理及优缺点2019-10-28 23:01:04

    一、KNN算法原理   K近邻法(k-nearst neighbors,KNN)是一种很基本的机器学习方法。   它的基本思想是: 在训练集中数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练集中与之最为相似的前K个数据,则该测试数据对应的类别就是K个数据

  • sklearn里计算roc_auc_score,报错ValueError: bad input shape2019-10-28 09:03:05

    用sklearn的DecisionTreeClassifer训练模型,然后用roc_auc_score计算模型的auc。代码如下 clf = DecisionTreeClassifier(criterion='gini', max_depth=6, min_samples_split=10, min_samples_leaf=2)clf.fit(X_train, y_train)y_pred = clf.predict_proba(X_test)roc_auc = roc_a

  • ML(9) - EnsembleLearing集成学习2019-10-26 20:39:25

    集成学习集成学习基本概念Bagging基本概念Scikit-learn中的Bagging随机森林Boosting基本概念Scikit-learn中的Boosting集成学习结合策略集成学习回归问题 集成学习基本概念 训练多个学习器,对同一样本预测,再用某种结合策略将各学习器结合起来,得出最终预测结果。 集成学习

  • KNN-学习笔记2019-10-17 20:51:18

    仅供学习使用 练习1 # coding:utf-8 # 2019/10/16 16:49 # huihui # ref: import numpy as np from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier iris = datasets.load_iris() X = iris.

  • maven配置文件详解2019-10-04 23:02:14

    转载:https://blog.csdn.net/qq_33363618/article/details/79438044 setting.xml主要用于配置maven的运行环境等一系列通用的属性,是全局级别的配置文件;而pom.xml主要描述了项目的maven坐标,依赖关系,开发者需要遵循的规则,缺陷管理系统,组织和licenses,以及其他所有的项目相关因素,是项

  • 9.决策树2019-09-15 17:04:06

    1.什么是决策树 什么是决策树呢?首先我们生活中有很多决策树的例子,比如相亲T_T,很多妹子都会这样选择。 再比如说,某公司招聘机器学习算法工程师。 每一步都在进行一个决策,最终形成了一个倒立的树状结构,我们把这样一个过程称之为决策树。 我们在数据结构当中,也有树结构。这里的决

  • KNN算法2019-09-13 18:42:39

    1、底层算法 import numpy as np import pandas as pd import matplotlib.pyplot as plt #先随机设置十个样本点表示十杯酒 rowdata = {'颜色深度':[14.23,13.2,13.16,14.37,13.24,12.07,12.43,11.79,12.37,12.04], '酒精浓度':[5.64,4.38,5.68,4.80,4.32,2.76

  • Python使用AI人工智能技术对内容自动分类2019-09-10 09:00:27

    原文链接:https://my.oschina.net/u/165676/blog/1836301 2017年下半年有一段时间因为工作涉及AI人工智能,曾经短时间研究过,本文只是初步的研究成果,纯粹是抛砖引玉。 之前文章介绍了网络爬虫,实际上,也会AI有密切关系,因为AI在进行智能分析的之前,需要对数据

  • 异常检测-基于孤立森林算法Isolation-based Anomaly Detection-3-例子2019-09-06 16:57:09

    参考:https://scikit-learn.org/stable/auto_examples/ensemble/plot_isolation_forest.html#sphx-glr-auto-examples-ensemble-plot-isolation-forest-py   代码: print(__doc__)import numpy as npimport matplotlib.pyplot as pltfrom sklearn.ensemble import IsolationFores

  • python机器学习之决策树2019-08-14 19:53:29

    决策树(Decision Tree)是一种非参数的有监督学习方法,它能够从一系列有特征和标签的数据中总结出决策规则,并用树状图的结构来呈现这些规则,以解决分类和回归问题。决策树尤其在以数模型为核心的各种集成算法中表现突出。开放平台:Jupyter lab根据菜菜的sklearn课堂实效生成一棵决策树。

  • 模型训练及调参2019-08-06 18:00:30

    1.模型选择 根据二分类问题进行模型训练 from sklearn.linear_model import LogisticRegression import pandas as pd import numpy as np from sklearn.neighbors import KNeighborsClassifier from sklearn.linear_model import LogisticRegression from sklearn.svm im

  • sklearn学习笔记二——随机森林2019-08-05 17:40:32

    随机森林 from sklearn import tree from sklearn.datasets import load_wine from sklearn.model_selection import train_test_split#用于划分训练测试集数目 from sklearn.ensemble import RandomForestClassifier wine=load_wine() X_train,X_test,Y_train,Y_test=tra

  • 机器学习——集成算法2019-08-03 09:42:05

    机器学习——集成算法(一)集成算法原理1.1 Bagging模型1.2 Boosting模型1.3 Stacking模型(二)集成算法实验分析2.1 构建实验数据集2.2 硬投票和软投票效果2.3 Bagging策略效果2.4 集成效果展示分析2.5 OOB袋外数据的作用2.6 特征重要性2.7 Boosting-提升策略2.8 GBDT 提升算法流

  • 《A Two-Step Disentanglement Method》keras 实践2019-07-11 21:40:57

    Notes 文章是关于解耦特征表示的,网络主体基于 auto encoder,但将 encoder 拆成两个:EncsEnc_sEncs​ 和 EnczEnc_zEncz​,意图将 latent code 分成两部分:z’=(s, z),其中 s 编码同 label 相关的信息,z 编码其它信息。 z'EncsEnczClfsClfzszxl_sl_zx_hat 实现解耦的思路是靠两个

  • python使用sklearn中的SVM(入门级)2019-07-01 14:31:08

    1,先说个例子,看看简单的使用sklean中的SVC(support vectors classification)。 from sklearn import svm import warnings warnings.filterwarnings("ignore", category=FutureWarning, module="sklearn", lineno=196) X = [[0, 0], [0, 1], [1, 0], [1, 1]] # traini

  • 2019.6.7机器学习之svm案例2019-06-07 09:56:55

    1.案例:承袭Decision Tree的案例数据,同样用身高和体重来界定胖瘦。如下文字档(7.SVM.txt),三个栏位各代表身高(m)、体重(kg)与胖瘦(thin/fat)。 2.问题:现在有两人,其中一位身高1.6m、体重30kg,另一位身高1.6m、体重300kg,请问各是胖是瘦呢? 3.数据文档:7.SVM.txt,内容如下。 1.5 40

  • Python KNN 学习曲线2019-06-06 21:00:07

    学习曲线的目的是选择更好的模型参数。以最近邻算法为例,选取最近的多少个数据点,才能达到最优。可以控制训练集不动,调整最近的点的个数,绘制学习曲线。 import matplotlib.pyplot as plt score = [] krange=range(1,21) # K值取值范围 for i in krange: clf=KNN(n_neighbors=i)

  • SVM简单上手示例2019-05-28 22:43:32

    转载自 百度知道 id:风_南(https://zhidao.baidu.com/usercenter?uid=e9904069236f25705e799313) 转载只为方便学习复习,侵删。   在用scikit-learn包训练机器学习模型时候,这里举一个训练SVM的例子: 1. 先要按照scikit-learn包,先安装下面三个依赖包: Python (>= 2.6 or >= 3.3), NumPy (>

  • 实现机器学习的循序渐进指南VII——Blending2019-05-25 21:55:23

    目录 介绍 混合(Blending)模型 混合(Blending)架构 混合(Blending)实现 混合(Blending)分类 结论与分析 介绍 混合(Blending)是一种模型融合方法,而不是传统的机器学习算法。Netflix中的顶级表演者使用混合(Blending),这被认为是一种堆叠形式。混合(Blending)更像是工程方法,因此,

  • Python机器学习笔记:朴素贝叶斯算法2019-05-18 15:47:46

      朴素贝叶斯是经典的机器学习算法之一,也是为数不多的基于概率论的分类算法。对于大多数的分类算法,在所有的机器学习分类算法中,朴素贝叶斯和其他绝大多数的分类算法都不同。比如决策树,KNN,逻辑回归,支持向量机等,他们都是判别方法,也就是直接学习出特征输出Y和特征X之间的关系,要么是

  • 大白话5分钟带你走进人工智能-第二十六节决策树系列之Cart回归树及其参数(5)2019-05-17 11:41:43

                                                    第二十六节决策树系列之Cart回归树及其参数(5) 上一节我们讲了不同的决策树对应的计算纯度的计算方法,其实都是针对分类来说,本节的话我们讲解回归树的部分。 目录 1-Cart回归树的

  • 吴裕雄 python 机器学习——模型选择参数优化随机搜索寻优RandomizedSearchCV模型2019-05-02 16:47:42

    import scipyfrom sklearn.datasets import load_digitsfrom sklearn.metrics import classification_reportfrom sklearn.linear_model import LogisticRegressionfrom sklearn.model_selection import train_test_splitfrom sklearn.model_selection import GridSearchCV,Ra

  • 吴裕雄 python 机器学习——KNN分类KNeighborsClassifier模型2019-04-30 10:51:11

    import numpy as npimport matplotlib.pyplot as pltfrom sklearn import neighbors, datasetsfrom sklearn.model_selection import train_test_splitdef load_classification_data(): # 使用 scikit-learn 自带的手写识别数据集 Digit Dataset digits=datasets.load_digit

  • python运用sklearn实现KNN分类算法2019-04-17 19:49:20

    KNN(K-Nearest-Neighbours Classiflication)分类算法 最简单的分类算法,易于理解和实现 实现步骤:通过选取与该点距离最近的k个样本,在这k个样本中哪一个类别的数量多,就把k归为哪一类。 注意 该算法需要保存训练集的观察值,以此判定待分类数据属于哪一类 k需要进行自定义,一般选取k

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有