ICode9

精准搜索请尝试: 精确搜索
  • 机器学习实战 第一章 约会网站预测 kNN python3实现2020-03-21 14:58:35

    # -*- coding: utf-8 -*- """ Created on Fri Jul 13 09:17:41 2018 @author: wzy """ from matplotlib.font_manager import FontProperties import matplotlib.lines as mlines import matplotlib.pyplot as plt import time import numpy a

  • 机器学习基础——简单易懂的K邻近算法,根据邻居“找自己”2020-03-11 09:04:56

    本文始发于个人公众号:TechFlow,原创不易,求个关注 今天的文章给大家分享机器学习领域非常简单的模型——KNN,也就是K Nearest Neighbours算法,翻译过来很简单,就是K最近邻居算法。这是一个经典的无监督学习的算法,原理非常直观,易于理解。 监督与无监督 简单介绍一下监督这个概念,监督是

  • 【AI】_01_KNN2020-03-04 12:38:02

    文章目录【一】 KNN(K邻近算法)【二】 投票机制(多数决)【三】 如何选取 K【四】 交叉验证(K-Fold)【五】 Disadvantage(缺点)     【一】 KNN(K邻近算法)   【有监督】最基础的分类算法,简单易懂     【二】 投票机制(多数决)     【三】 如何选取 K     【四】 交叉验

  • KNN算法--python实现2020-02-27 13:07:05

    1.KNN算法作为分类的算法,也被成为k近邻算法。 2.KNN算法的核心思想是新增一个样本在特征空间中,k个最近的样本大多数是 一类的,那么这个样本也属于这一类。 这里我们利用欧拉公式计算样本间的距离。 import math import numpy as np from sklearn import dat

  • 用户画像-算法实例KNN2020-02-19 21:01:27

    import cn.doitedu.commons.util.SparkUtil import org.apache.spark.ml.linalg import org.apache.spark.ml.linalg.{Vector, Vectors} import org.apache.spark.sql.{DataFrame, Dataset, SparkSession} object KnnDemo { def main(args: Array[String]): Unit = {

  • 手写数字识别 KNN2020-02-03 21:09:37

    from numpy import* import csv import operator from sklearn.neighbors import KNeighborsClassifier def toInt(array): array = mat(array) m, n = shape(array) Array=zeros((m,n)) for i in range(m): for j in range(n): try:

  • KNN算法实现数字识别2020-02-03 10:57:04

    KNN算法介绍 KNN算法(K-NearestNeighor Algorithm) 是一种最简单的分类算法。 算法核心: 假设在一个二维坐标平面中已经有了\(n\)个点,每个点的颜色已知,现在给定查询点\(p\)的坐标\((x,y)\),判断\(p\)的颜色。 对于已知的\(n\)个点,计算每个点和点\(p\)的欧几里得距离: \[dis_i=\sqrt{(

  • 使用opencv和python进行智能图像处理-(1.KNN)2020-01-29 19:55:36

    出现ImportError: cannot import name 'add_newdocs'的问题 原因: 如果在ipython book中,import numpy时报这个错误,而spyder中却能正常使用,那么很有可能是使用了anaconda作为开发环境后却自己卸载了anaconda自带的numpy,并且用pip重新安装了一个。解决方法很简单,conda install nump

  • 机器学习实战:KNN2020-01-26 19:44:27

    KNN—K近邻算法 工作原理 Training set中每个样本都存在标签(分类信息),输入的新数据没有标签。计算新数据与Training set中各个样本数据的距离,距离越近相似度越高。选择Training set中前k个最相似的数据(k通常不大于20),新数据的分类为k个最相似数据中出现次数最多的分类;若标签为数

  • Spark之K-近邻算法2020-01-26 17:37:42

    Spark之K-近邻算法 关于K-近邻算法的详细描述可以看 MapReduce之KNN算法 简而言之,K近邻算法即根据已经分类好的数据,通过特定的方式进行对比,对为分类的数据进行分类,Spark程序如下所示 package KNN import org.apache.spark.{SparkConf, SparkContext} object KNN { def

  • 机器学习实战学习笔记(二)-KNN算法(2)-KNN算法改进约会网站的配对效果2020-01-22 22:50:50

    机器学习实战学习笔记(二)-KNN算法(2)-KNN算法改进约会网站的配对效果 情景概要 某个妹子交往过三种类型的人: 不喜欢的人 魅力一般的人. 极具魅力的人 这个妹子想要知道自己到底喜欢哪一类男人,于是提供了她收集的约会数据(1000行,吐槽一波,手动狗头),并希望能创建一种分类机制来

  • 机器学习笔记(十)---- KNN(K Nearst Neighbor)2020-01-22 20:05:08

           KNN是一种常见的监督学习算法,工作机制很好理解:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个“邻居”的信息来进行预测。总结一句话就是“近朱者赤,近墨者黑”。        KNN可用作分类也可用于回归,在分类任务中可使用“投票法”,即

  • 任务7,深挖K近邻2020-01-09 19:57:03

      任务7 深挖K近邻 一, 缺失值的处理 处理缺失值的方法:需要理解数据,察觉到哪些数据是必要的哪些不必要 1, 删除法: (1)     删整个列 (2)     删整行(丢弃此记录) 2, 填补法 (1)     用平均值来填补缺失值 (2)     均值,中位数填补   二,特征编码   ——机器学习的核心是建模,

  • 任务6的大概总结和思考2020-01-06 21:02:55

    在该任务中,我们要做的是基于KNN算法的图像识别   首先,我在下载cifar-10数据集的时候遇到一些麻烦,第一次出现错误是说找不到load_data,通过发现找到了jupyter notebook新建的文件都是放在了D盘下Python3的Lib文件下,然后发现是我没把老师给的文件放在根目录下,我选择了直接将文件目录

  • 使用Python从图像创建数据集以进行人脸识别2019-12-09 01:57:29

    我正在尝试用Python编写人脸识别程序(我将应用k-nn算法进行分类). 首先,我将图像转换为灰度,然后创建了一个长列向量(通过使用Opencv的imagedata函数),该向量具有图像的像素(总共128×128 = 16384个特征) 因此,我得到了如下数据集(最后一列是类标签,我只显示了数据集的前7个特征,而

  • 【机器学习】机器学习入门03 - 数据归一化2019-11-18 15:04:33

    1. 数据归一化   1.1 医疗事故?——之前的kNN算法哪里出了问题? 在之前讲kNN算法时我们举过的肿瘤的例子中,有一个问题,也许很多读者没有考虑过。 回顾一下,kNN算法的第一步是求最为邻近的k个点,也就是要先求每个数据点与待预测的数据点的距离。我们仍然以p=2的明可夫斯基距离(欧拉距离

  • 机器学习:KNN算法Python实现2019-11-15 22:53:44

      KNN(K-Nearest Neighbor) K 近邻算法,K近邻就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。KNN算法用于监督学习分类模型,预测结果是离散的机器学习算法。   KNN算法原理:   1、计算每个测试数据与每个训练数据的距离(相识度);   2、按照距离升序,对训

  • kNN算法和决策树2019-11-11 17:56:09

      kNN  kNN算法的原理很简单,就是将新数据的特征与样本集中相应的特征进行比较,然后提取将样本集中特征最相似的数据的分类标签作为新数据的标签,一般的,只选取数据集中前k个最相似的元素,因此该算法被称为kNN,通常k取不大于20的整数。  下面看书上给出的实例:  from numpy import

  • kNN(上)2019-11-09 21:01:05

    本篇文章是机器学习小组第一周kNN学习的总结,主要参考资料为: 机器学习的敲门砖:kNN算法(上) https://mp.weixin.qq.com/s?__biz=MzUyMjI4MzE0MQ==&mid=2247484679&idx=1&sn=aec5259ee503b9b127b79e2a9661205d&chksm=f9cf74edceb8fdfb43e5dcd3279347e99fa6fb7523de2aaf301418eda6b4b14e

  • 使用python和Scikit Learn为K-NN机器学习算法实现ROC曲线2019-11-08 12:55:40

    我目前正在尝试为我的kNN分类算法实现ROC曲线.我知道ROC曲线是正确率与错误率的曲线图,我只是在努力从数据集中查找那些值.我将“ autoimmune.csv”导入到我的python脚本中,并在其上运行kNN算法以输出准确性值. Scikit-learn.org文档显示,要生成TPR和FPR,我需要传递y_test和y_score

  • knn算法,识别简单验证码图片2019-11-03 20:53:05

    引言:为什么学习这个呢? 这个算是机器学习,最入门的一点东东 这里介绍两种方法: 1.直接调用第三方库进行识别,缺点:存在部分图片无法识别 2.使用knn算法进行对图片的处理,以及运算进行识别   声明:本文均在pycharm上进行编辑操作,并本文所写代码均是python3进行编写,如果不能正常

  • python爬虫---散点图和KNN预测2019-10-29 15:53:24

    散点图和KNN预测 一丶案例引入 # 城市气候与海洋的关系研究 # 导包 import numpy as np import pandas as pd from pandas import Series,DataFrame import matplotlib.pyplot as plt %matplotlib inline # 使用画图模块时,jupyter工具需要声明 from pylab import mpl #

  • K近邻 (KNN)算法的原理及优缺点2019-10-28 23:01:04

    一、KNN算法原理   K近邻法(k-nearst neighbors,KNN)是一种很基本的机器学习方法。   它的基本思想是: 在训练集中数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练集中与之最为相似的前K个数据,则该测试数据对应的类别就是K个数据

  • KNN基础代码2019-10-27 22:03:59

    库 sklearn 库下的工具: datasets,model_selection,neighbors K近邻代码思路: 有个数据集----对数据分割----调用KNN算法 iris = datasets.load_iris() 导入数据集 数据集权重:开源数据集,重要数据集之一 数据集特点:还有3个类别,所以可分类 数据集描述链接:https://archive.ics.uc

  • scikit-learn中的机器学习算法封装——kNN2019-10-27 20:02:31

    接前面 https://www.cnblogs.com/Liuyt-61/p/11738399.html 回过头来看这张图,什么是机器学习?就是将训练数据集喂给机器,在上面kNN算法中就是将特征集X_train和Y_train传给机器学习算法,然后拟合(fit)出一个模型,然后输入样例到该模型进行预测(predict)输出结果。 而对于kNN来说

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有