ICode9

精准搜索请尝试: 精确搜索
  • 集成算法--sklearn2021-12-29 12:00:41

    集成算法 投票法 1.少数服从多数 2.多模型一致(硬投票) 3.更高把握(置信度)原则,以最高执行度的模型预测结果为准 4.把握程度汇总进行投票(软投票) 基于多个优化模型的投票分类器 from sklearn.ensemble import VotingClassifier # 导入投票分类器 from sklearn.datasets import loa

  • XGBoost—AdaBoost算法2021-12-28 21:30:34

    1.XGBoost参考博客: (89条消息) XGBoost超详细推导,终于有人讲明白了!_abcdefg90876的博客-CSDN博客 (89条消息) xgboost公式推导_guoxinian的专栏-CSDN博客_xgboost公式 (89条消息) XGBoost——机器学习(理论+图解+安装方法+python代码)_机器学习初学者必看,关注我,一起了解机器学

  • TensorflowSimilarity学习笔记122021-12-28 14:58:46

    2021SC@SDUSC 代码地址:similarity/f1_score.py at master · tensorflow/similarity · GitHub import tensorflow as tf from tensorflow_similarity.types import FloatTensor from .classification_metric import ClassificationMetric class F1Score(ClassificationMetri

  • python逻辑回归(logistic regression LR) 底层代码实现 BGD梯度下降算法 softmax多分类2021-12-25 18:59:11

    逻辑回归 前面用sigmoid函数实现了基本逻辑回归的二分类,感兴趣的童鞋点击###python逻辑回归(logistic regression LR) 底层代码实现 BGD梯度下降算法 二分类#####了解sigmoid二分类逻辑回归 >> 目录 逻辑回归前言一、多0-1分类器1.OVO2.OVR3 OvO vs OvR: 二、softmax多分类1

  • 机器学习期末复习题题库-单项选择题2021-12-25 12:06:00

    1.属于监督学习的机器学习算法是:贝叶斯分类器 2.属于无监督学习的机器学习算法是:层次聚类 3.二项式分布的共轭分布是:Beta分布 4.多项式分布的共轭分布是:Dirichlet分布 5.朴素贝叶斯分类器的特点是:假设样本各维属性独立 6.下列方法没有考虑先验分布的是:最大似然估计 7.对于正态密

  • 毕业设计 : 基于机器学习的驾驶疲劳检测2021-12-24 18:01:25

    文章目录 0 前言1 总结2 基于多视频窗口的疲劳驾驶监测系3 基于近红外图像的疲劳驾驶检测4 基于面部特征的全天候疲劳驾驶检测及预警5 其他方法 0 前言 最近在帮同一位同学研究基于机器学习方法的驾驶疲劳算法,这里做一些记录 毕设帮助,开题指导,技术解答

  • 决策树的集成方法2021-12-20 12:35:22

    (原创) 本文讨论决策树的集成方法,主要思想有两种 1.bagging ,以随机森林为代表 构建独立的树,然后加权平均的思想   2.boosting ,以adaboost,gbdt为代表 由弱分类器,组成强分类器,他与bagging的显著不同是减少偏差而不是方差

  • 机器学习模型评估指标汇总 (一)2021-12-18 22:02:27

    参考:https://www.cnblogs.com/zongfa/p/9431807.html 在使用机器学习算法过程中,针对不同的问题需要不用的模型评估标准,这里统一汇总。主要以两大类分类与回归分别阐述。 一、分类问题 1、混淆矩阵 混淆矩阵是监督学习中的一种可视化工具,主要用于比较分类结果和实例的真实信息。

  • 如何创建Python程序包,Python程序包结构详解(超级详细)2021-12-16 20:33:20

    我们知道,组织大型应用的代码的最简单方法,通常就是将其分成几个包,这使得代码更加简单,也更容易理解、维护和修改,同时还可以使每个包的可复用性最大化,它们的作用就像组件一样。 setup.py脚本文件 对于一个需要被分发的包来说,其根目录包含一个 setup.py 脚本,它定义了 distutils

  • 机器学习经典方法思想2021-12-12 14:06:59

    本文附带问题以及答案,and总结,在每个章节对应的末尾 目录  1 绪论 2 模型评估和选择 留出法(ps:留一法是只留一个验证) 交叉验证法(k折交叉验证)(10折交叉验证) 自助法 调参和最终模型  性能度量 查准率、查全率 P-R曲线和平衡点F1 ROC曲线和AUC面积、Lrank排序损失 代价敏感曲

  • 桂电七院opencv实验报告四2021-12-11 21:30:33

    实验目的 (1)掌握OpenCV 3在图像处理中常用函数的使用。 (2)熟练操作Anaconda环境中Jupyter Notebook的使用。 (3)熟悉OpenCV中傅里叶变化的原理。 实验原理 (1)熟练掌握Anaconda环境的安装及其基本操作。 (2)理解Jupyter Notebook的工作原理。 (3)将上机程序调试通过,并能独

  • 分类模型性能的评判方法-ROC分析2021-12-09 14:35:11

    一、混淆矩阵 二、引入ROC曲线   如上第一幅图,蓝色高斯表示真实值为阴性,红色高斯表示真实值为阳性。A,B,C代表不同的阈值,阈值线左边表示预测值为阴性,阈值线右边表示预测值为阳性。阈值从A到C,由此绘制处第二幅图的曲线(粗线),也即ROC曲线。     ROC曲线中,   横坐标:假阳性率,FPR

  • 二分类器、混淆矩阵、精度、召回率、ROC曲线、PR曲线、多类分类器,误差分析2021-12-07 23:32:19

    手写数字识别,机器学习“分类”学习笔记—来自Geron的《机器学习实战》 图片识别领域的“hello word” 文章目录 MNIST训练二元分类器性能测量使用交叉验证测量准确率混淆矩阵精度和召回率精度/召回率权衡ROC曲线 多类分类器误差分析 MNIST 获取MNIST代码,70000张手写数字

  • 基于sklearn框架下的knn分类器实现2021-12-06 22:30:44

    from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier import csv csvFile = open("D:\datacsv.csv", "r") reader = csv.reader(csvFile) iri_X=[] iri_y=[] for item in reader: # 忽略第一行

  • 【练习/sklearn库基础】导入sklearn库自带的乳腺癌数据集,分别使用GaussianNB、MultinomialNb、BernouliNB、SVM及KNN5种分类器进行分类预测2021-12-05 20:58:30

    声明: 1、 学生刚开始学习python,代码会有很多不严谨,也较为粗糙,单纯用于广大网友参考,希望能起到一定的帮助 2、 如果要转载,请标记出来源 3、本文纯粹用于技术练习,请勿用作非法途径 4、如果有问题请在评论区指出,虚心接受立马改正 做题途中所遇问题: 无 代码块: 在这里插入代码片 #

  • 【样本不均衡】2021-12-05 20:01:15

    类别的不同比例的影响 论文1用浅层CNN在CIFAR-10数据集上通过设计类别的不同比例: 作者发现,样本数量的差异会对模型的性能影响很大。比如Dist.5情况中,除airplane外其它类别几乎识别不到。 类样本均衡解决还会面临难易样本不均衡造成易样本支配问题 因为存在Hard example,有的

  • GBDT、XGBoost、LightGBM的区别和联系2021-12-05 17:05:08

    文章目录 1. Boosting算法2. GBDT算法GBDT的优点和局限性 3. XGBoost算法GBDT和XGBoost对比: 4. LightGBM算法4.1 LightGBM的并行方案4.1.1 特征并行4.1.2 数据并行4.1.3 基于投票的并行方案 4.2 基于梯度的单边检测(GOSS)4.3 排他性特征捆绑(EFB)LightGBM和XGBoost对比

  • csp 202006-1 线性分类器2021-12-04 19:01:24

    题目详细说明 #include<iostream> #include<bits/stdc++.h> using namespace std; struct Point{ int x; int y; }pointA[1005],pointB[1005]; int main(){ std::ios::sync_with_stdio(false); cin.tie(NULL); cout.tie(NULL); int n,m; cin>>n>>m

  • CSP_202006-1_线性分类器2021-12-04 17:34:35

    题目描述 #include <iostream> #include <vector> #include <set> #include <algorithm> #include <unordered_map> #include <string> #include <cstring> using namespace std; const int INF = 0x3f3f3f3f; int main() { int n,

  • 集成算法(Bagging & Boosting)2021-12-04 16:32:15

    用多种分类器一起完成同一份任务         Bagging策略(有放回的,随机的,子集大小一样的,m个训练集用同一个模型)         Boosting-提升策略(串联)     AdaBoost算法    

  • 线性分类器三大准则2021-12-04 15:32:57

    线性分类器最佳准则 线性分类器三种最优准则: Fisher 准则:(LDA)投影后类内间隔最小,类间间隔最大。即最大化“广义瑞利熵”。感知准则函数 :准则函数以使错分类样本到分界面距离之和最小为原则。支持向量机 :最大化样本到分界面的间隔。

  • K-近邻算法2021-12-03 16:01:52

    算法思想:首先计算预测的点与所有的点的距离,然后从小到大排序取前K个最小的距离对应的点,统计前K个点对应的label的个数,取个数最大的label作为预测值    K邻居分类器:简单地在训练数据中找到与测试样本“最相似”(特征空间中的“邻居”)的样本,然后为测试样本赋予与“最相似”的

  • 贝叶斯分类器做文本分类案例2021-12-01 20:32:10

    贝叶斯分类器做文本分类 文本分类是现代机器学习应用中的一大模块,更是自然语言处理的基础之一。我们可以通过将文字数据处理成数字数据,然后使用贝叶斯来帮助我们判断一段话,或者一篇文章中的主题分类,感情倾向,甚至文章体裁。现在,绝大多数社交媒体数据的自动化采集,都是依靠首先将文

  • 机器学习算法中的准确率、召回率、F值等各种指标2021-11-30 22:04:18

    摘要:   数据挖掘、机器学习和推荐系统中的评测指标—准确率(Precision)、召回率(Recall)、F值(F-Measure)简介。 引言:   在机器学习、数据挖掘、推荐系统完成建模之后,需要对模型的效果做评价。 业内目前常常采用的评价指标有准确率(Precision)、召回率(Recall)、F值(F-Measu

  • 哈工大2021机器学习期末考试题2021-11-22 18:59:18

    一、说明参数正则化和参数后验之间的联系;并解释在机器学习模型参数估计中使用正则化的目的。 二、给出条件熵的定义。举一个本课程中应用该方法的例子,说明使用条件熵的好处,给出你的直观解释。 三、朴素贝叶斯的基本假设是什么,有什么好处。当假设满足时,朴素贝叶斯是否是最优分类

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有