ICode9

精准搜索请尝试: 精确搜索
  • Pythons机器学习--sklearn导包合集2021-09-04 17:00:14

    # 分类算法 1.KNN from sklearn.neighbors import KNeighborsClassifier 2.朴素贝叶斯 from sklearn.naive_bayes import BernoulliNB  # 特征值是二分类 from sklearn.naive_bayes import GaussianNB from sklearn.naive_bayes import MultinomialNB 3.逻辑回归【二分类】 fr

  • KNN:最近邻算法原理、python实现以及sklearn实现2021-08-26 20:34:25

    目录 1  K—NN算法2  K近邻模型2.1  距离度量2.2  k值的选择2.3  分类决策规则3  KNN的sklearn使用4  KNN的python实现4.1  使用KNN实现约会网站配对效果改进4.2  手写信息识别系统5  小结: #导入相关的包 import pandas as pd import numpy as np import matp

  • sklearn通用学习模式2021-08-24 12:03:36

    1 from sklearn import datasets#引入数据集,sklearn包含众多数据集 2 from sklearn.model_selection import train_test_split#将数据分为测试集和训练集 3 from sklearn.neighbors import KNeighborsClassifier#利用邻近点方式训练数据 4 5 ###引入数据### 6 iris=datas

  • python库——sklearn2021-08-21 10:02:57

    python库——sklearn 本博客将持续保持更新!!! 前言 sklearn是一个无论对于机器学习还是深度学习都必不可少的重要的库,里面包含了关于机器学习的几乎所有需要的功能,因为sklearn库的内容是如此之多以至于一开始就从宏观层面展开的话很可能会使初学者感到困惑和恐惧。相反的,本文不会先

  • Sklearn对多分类的每个类别进行指标评(PR)2021-08-16 19:34:52

    Sklearn中的召回度和精准度函数                             参考网址: https://www.cnblogs.com/zhangxianrong/p/14884257.html

  • 支持向量机算法的Sklearn完整复现2021-08-10 08:31:51

    1 scikit_learn里的SVM scikit-learn里对SVM的算法实现都在包sklearn.svm下,其中SVC类是用来进行分类的任务,SVR是用来进行数值回归任务的。 在计算机中,可以用离散的数值来代替连续的数值进行回归。 以SVC为例,首先选择SVM核函数,由参数kernel指定,其中linear表示本章介绍的线性函数,它

  • sklearn--召回率-精确率-auc2021-08-10 07:33:02

    # -*- coding:utf-8 -*- from sklearn import metrics def recall_precision(true_y, pred_y): recall = metrics.recall_score(true_y, pred_y) precision = metrics.precision_score(true_y, pred_y) return recall, precision def auc_score(true_y, pred

  • #sklearn——手写实现线性回归2021-08-06 16:01:40

    一元一次拟合f(x)=wx+b 使用已有的线性回归拟合函数 import numpy as np import matplotlib.pyplot as plt from sklearn.linear_model import LinearRegression X = np.linspace(2, 10, 20).reshape(-1,1) # f(x) = wx + b y = np.random.randint(1, 6, size=1)*X + np.rando

  • 人工智能 kmeans和som的简单比较2021-08-06 12:03:19

    人工智能 kmeans和som的简单比较 cokecoffe · 2020年02月13日 · 2 次阅读   聚类分析是一种常用的分析方法,其中最为常用的 KMeans。最近也看到一个 KMeans 的改进方法,是加入 som 竞争神经网络进行训练。 竞争神经网络是一个仿照人脑神经元的启发而发明的,在这个神经网

  • 数据集和特征提取2021-08-05 19:02:21

    目录 *sklearn数据集*一、scikit-learn数据集API介绍二、sklearn大数据集三、sklearn返回值 *数据集划分api**特征值提取*一、字典特征提取二、文本特征提取三、Tf-idf文本特征提取(找关键词)API sklearn数据集 一、scikit-learn数据集API介绍 sklearn.datasets 加载获

  • #sklearn——线性回归2021-08-03 09:31:04

    线性回归 线性回归通过一个或者多个自变量与因变量之间进行建模的回归分析。其中特点为一个或多个称为回归系数的模型参数的线性组合。 通用公式 w, x为矩阵 ,  损失函数(误差大小) yi为真实值大小,hw(xi)为拟合后的预测值,目的就是找到使得损失函数H(θ)最小的w值 最小二乘法的

  • K-近邻算法的Sklearn完整复现2021-08-02 21:04:34

    1. 算法原理 核心思想:未标记样本的类别,由距离其最近的k个邻居投票来决定。 已知条件:具有已标记数据集且知道数据集中每个样本所属类别。一个未标记数据样本。 目的:预测未标记数据样本所属类别。 算法原理伪代码: 假设 X_test 为待标记的数据样本,X_train为已标记的数据集 遍历 X_t

  • 机器学习笔记(十四)——非线性逻辑回归(sklearn)2021-07-29 17:02:23

    本博客仅用于个人学习,不用于传播教学,主要是记自己能够看得懂的笔记( 学习知识、资源和数据来自:机器学习算法基础-覃秉丰_哔哩哔哩_bilibili 用sklearn库就灰常简单啦~ 可以自己用make_gaussian_quantiles生成数据。(就不用再把数据搞上来了) 代码: from sklearn.preprocessing import

  • Python学习笔记:sklearn.externals.joblib导入报错cannot import name 'joblib'2021-07-29 15:34:49

    之前跑完模型保存都是通过以下脚本保存。 # 保存模型 from sklearn.externals import joblib joblib.dump(model_lgb, r"E:\model.pkl") # 导出 # model_lgb = joblib.load(r"E:\model.pkl") # 导入 最近升级 sklearn 0.24 包之后发现这种保存方式会报错。 scikit-learn

  • SlowFast-入门1-动作识别-部署与测试2021-07-28 19:04:10

    SlowFast-部署与测试 目录 SlowFast-部署与测试简介安装部署测试准备pkl文件并上传上传ava.json文件准备yaml文件准备素材运行 运行结果后记——不重要的痛苦的过程 简介 GitHub: https://github.com/facebookresearch/SlowFast 官方给的运行示例图是这样的。 特点是:识别

  • ubuntu系统安装python机器学习sklearn库2021-07-28 15:33:04

    1. 先安装numpy,scipy依赖项 pip install numpy sudo apt-get install libblas-dev liblapack-dev libatlas-base-dev gfortran sudo pip install scipy  2. 安装scikit-learn sudo apt-get install python-sklearn 3. 查看安装结果 pip list 出现scikit-learn 即为安装成

  • 数分模型整理v1.0.12021-07-26 20:33:56

    一、关联规则 功能集/套餐/购物篮分析 关联分析(一)关联规则(二) 二、集成学习 集成学习bagging 三、聚类 DBSCAN聚类k-means聚类 在机器学习里,什么是凸样本集和非凸样本集? 定义:存在两点的直线内的点有不属于集合S的点,集合S就称为凹集。 … 四、分类 使用sklearn库:KNN算法baggi

  • 机器学习笔记(九)——LASSO(sklearn)2021-07-26 16:36:16

    本博客仅用于个人学习,不用于传播教学,主要是记自己能够看得懂的笔记( 学习知识、资源和数据来自:机器学习算法基础-覃秉丰_哔哩哔哩_bilibili 数据参见博客:机器学习笔记(七)——岭回归(sklearn) - Lcy的瞎bb - 博客园 (cnblogs.com) LASSO与岭回归不同的是,LASSO的正则化所加的一项不是平

  • 2021-07-222021-07-22 19:57:33

    自学笔记: Plt.rcParams()详解: 首先matplotlib通过rc配置文件来自定义图形的各种默认属性,称之为rc配置,或者rc参数。通过rc参数,可以修改默认的属性。 序号 属性 说明 1 plt.rcParams[’axes.unicode_minus’] = False 字符显示 2 plt.rcParams[’font.sans-serif’] = ‘SimHei

  • sklearn-机器学习库2021-07-21 10:34:05

    Pipeline: Parameters steps : 步骤:列表(list) 被连接的(名称,变换)元组(实现拟合/变换)的列表,按照它们被连接的顺序,最后一个对象是估计器(estimator)。memory:内存参数,Instance of sklearn.external.joblib.Memory or string, optional (default=None)属性,name_steps:bunch object,具

  • 机器学习-数据预处理2021-07-21 01:00:07

    数据预处理——特征工程 前言 特征工程是对原始数据进行一系列工程处理,将其提炼为特征,作为输入供算法和模型使用。数据预处理是其中的重要一环,通过对数据进行预处理,可以更好地提取出数据的特征,更容易训练。数据预处理的常用方法具体如下,可使用的工具有numpy/sklearn/torch...,这里

  • 使用sklearn进行量纲缩放的程序2021-07-20 19:33:53

    使用sklearn进行量纲缩放的程序 # -*- coding: utf-8 -*- """ 演示内容:量纲的特征缩放 (两种方法:标准化缩放法和区间缩放法。每种方法举了两个例子:简单二维矩阵和iris数据集) """ #方法1:标准化缩放法 例1:对简单示例二维矩阵的列数据进行 from sklearn import preprocessing

  • 特征工程-数据预处理2021-07-19 01:34:00

    前言 特征工程是对原始数据进行一系列工程处理,将其提炼为特征,作为输入供算法和模型使用。数据预处理是其中的重要一环,通过对数据进行预处理,可以更好地提取出数据的特征,更容易训练。数据预处理的常用方法具体如下,可使用的工具有numpy/sklearn/torch...,这里主要介绍sklearn.preproce

  • 机器学习Sklearn系列:(三)决策树2021-07-16 20:33:23

    决策树 熵的定义 如果一个随机变量X的可能取值为X={x1,x2,..,xk},其概率分布为P(X=x)=pi(i=1,2,...,n),则随机变量X的熵定义为\(H(x) = -\sum{p(x)logp(x)}=\sum{p(x)log{\frac{1}{p(x)}}}\)。需要注意的是,熵越大,随机变量的不确定性就越大。 当n = 2的时候,\(H(p)=-plogp-(1-p)log(1-p)\)也

  • 集成学习-2.机器学习基础2021-07-15 21:57:48

    参考文献ensemble-learning 1. 概念 根据数据是否有因变量,机器学习的任务可分为:有监督学习和无监督学习。 有监督学习:给定某些特征去估计因变量,即因变量存在的时候,我们称这个机器学习任务为有监督学习。如:我们使用房间面积,房屋所在地区,环境等级等因素去预测某个地区的房价。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有