ICode9

精准搜索请尝试: 精确搜索
  • 目标检测的准确率(accuracy),精确率(precision),召回率(recall)2022-06-15 13:01:12

    脑子笨,总是搞混这几个概念,然后每次都要重新理解别人写的,还是很绕,这样写下次应该就能很快明白了,哈哈 一、 准确率(accuracy),精确率(precision),召回率(recall) TP : 将正类预测为正类数 (预测正确)   (正类) FN: 将正类预测为负类数(预测错误)(正类) FP: 将负类预测为正类数(预测错误)(

  • 机器学习性能指标2022-04-18 16:33:23

    一、混淆矩阵 混淆矩阵的每一列代表了预测类别,每一列的总数表示预测为该类别的数据的数目;每一行代表了数据的真实归属类别,每一行的数据总数表示该类别的数据实例的数目。每一列中的数值表示真实数据被预测为该类的数目:第一行第一列中的43表示有43个实际归属第一类的实例被预测为第

  • 10机器学习之监督学习2021-10-09 22:34:09

    监督学习的目标 利用一组带有标签的数据,学习从输人到输出的映射,然后将这种映射关系应用到未知数据上,达到分类或回归的目的。 分类:当输出是离散的,学习任务为分类任务。 回归:当输出是连续的,学习任务为回归任务。 分类 分类任务: 分类学习 输人:一组有标签的训练数据(也称观察和评

  • 浅析卷积神经网络在计算机视觉中的应用(附YOLOv5实验总结)2021-10-04 19:04:10

    写在前面:本文是作者学习路上的笔记总结。 若干文字方面的内容摘自各大网站,包括百度、知乎、CSDN等,作为学习笔记分享给大家,非商用 侵删。 文章实验部分为作者实验真实实验数据,可供小伙伴参考。 一、引言         卷积神经网络可以处理图像以及一切可以转化成类似图像结构

  • 统计学习方法自学笔记(这章属于绪论有点杂乱,后续补)2021-10-01 20:30:57

    一、分类 基本分类: 监督学习:从标注数据中学习预测模型的机器学习问题。换句话说,就是使用训练数据集训练好一个模型,再使用该模型对测试样本进行预测,训练集是已知的。由学习系统和预测系统两部分组成。(样本有标签) 无监督学习:从无标注数据中学习预测模型的机器学习问题。本质是学习

  • 千万级类别人脸识别模型并行训练2021-07-22 21:31:10

    并行训练的方式: 1.nn.DataParallel数据并行。将一个batchsize中的数据分给多个GPU并行训练。2.模型并行。将FC层拆分给多个GPU进行并行训练。3.partial_fc。(抽样fc层) 一、模型并行 目前处理大规模(数据多、类别大)数据集的方法: 混合并行:即backbone使用数据并行,分类层使用模型并

  • 机器学习笔记92021-07-14 23:33:18

    机器学习系统设计 1.1 垃圾邮件分类 以垃圾邮件分类为例来学习机器学习系统设计,左边为垃圾邮件,右边为非垃圾邮件 建立一个垃圾邮件分类器,使用邮件中的单词作为特征,垃圾邮件和非垃圾邮件输出值分别用1和0表示,同时需要采用监督学习的方式,选择一个100个单词出来可以很好对垃圾邮件和

  • 【深度学习】yolov5 可视化训练结果以及result.txt解析2021-05-01 12:32:57

    ✨yolov5训练结果生成 yolov5每次train完成(如果没有中途退出) 都会在run目录下生成expX目录(X代表生成结果次数 第一次训练完成生成exp0 第二次生成exp1......以此类推) expX目录下会保存训练生成weights以及result.txt (其中weights是训练生成权重,可用于detect) 并以可视化的方式展示

  • 准确率、精确率、召回率、F1值、ROC/AU2021-02-11 12:00:40

    对于二分类问题,机器预测的和实际的还是会有所偏差,所以我们引入以下几个概念来评价分类器的优良。 一、TP、TN、FP、FN概念 首先有关TP、TN、FP、FN的概念。大体来看,TP与TN都是分对了情况,TP是正类,TN是负类。则推断出,FP是把错的分成了对的,而FN则是把对的分成了错的。(我的记忆

  • 《统计学习方法》读书笔记2021.1.242021-01-24 22:31:43

    《统计学习方法》读书笔记 文章目录 《统计学习方法》读书笔记1. 基于梯度的优化方法2. KKT条件:3. 线性最小二乘法(Moore-Penrose 伪逆求解)4. 机器学习任务总结5. 精确率、准确率、查准率(召回率)、ROC曲线、AUC值6. 防止过拟合的5种方法7. 熵、相对熵(KL散度)、交叉熵8. 最大似

  • 机器学习性能评估指标2021-01-05 14:34:31

    文章目录 1、Accuracy:准确率2、Precision:精确率/查准率3、Recall:召回率/查全率4、F-Score:F值 混淆矩阵: True Positive (TP):真正例,正类预测为正类数; False Negative (FN):假反例,正类预测为反类数; False Positive (FP):假正例,反类预测为正类数; True Negative (TN):真反例,反类

  • 整理分类评价指标【TPR、TNR、pre、F1、混淆矩阵】2020-12-14 17:35:20

    特异度(specificity)与灵敏度(sensitivity) https://www.jianshu.com/p/7919ef304b19       查全率(Recall),查准率(Precision),灵敏性(Sensitivity),特异性(Specificity),F1,PR曲线,ROC,AUC的应用场景 https://www.e-learn.cn/content/qita/2520407 (具体其他指标见网址,这里直拿出recall,pre,sen,sp

  • 干货|感知机更新算法正确性的直观理解2020-11-24 07:01:35

    这里我们就用一个例子,本来该点应该分为正类,错分为负类,进行更新后,直观上算法的正确性判断。 首先当我们感知机算法更新到某一点的时候,假如原来A点的正确类别是正类,y=1,算法将它判断为负类,判断为-1,如下所示:我们能够看到此时更新到了左下角的红色正方框,此时是将它分错了,假设它为正类y=

  • 如何处理不均衡数据2020-01-08 11:52:34

      定义 以二分类问题为例,假设我们的数据集是S,数据集中的多数类为S_maj,少数类为S_min,通常情况下把多数类样本的比例为100:1,1000:1,甚至是10000:1,这种情况下为不平衡数据,不平衡数据的学习即需要在如此分布不均匀的数据集中学习到有用的信息。   问题:不均衡的数据理解预测起来很简

  • Label smooth2019-08-28 11:39:32

    什么是Label smooth regularization 对分类问题 经过softmax函数之后的 one hot 编码(正类概率为1,其他为0)进行改进。 为什么要使用Label smooth regularization one-hot 编码的问题:会自驱的向正类和负类的差值扩大的方向学习(过度的信任标签为1的为正类),在训练数据不足

  • 准确率、精确率、召回率、F-Measure、ROC、AUC2019-06-21 20:40:55

     先理解一下正类(Positive)和负类(Negetive),比如现在要预测用户是否点击了某个广告链接,点击了才是我们要的结果,这时,点击了则表示为正类,没点击则表示为负类。   TP(True Positive):被预测成了正类的正类,即正确预测的正类   FP(False Positive):被预测成了正类的负类   TN(True Nege

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有