ICode9

精准搜索请尝试: 精确搜索
  • CTPN训练自己的数据集过程大白话记录2019-12-27 14:03:39

    一.算法理解   此处省略1万字。。。。。。。。。。。。。。 二.训练及源码理解   配置以下3步:   在utils文件夹和utils\bbox文件夹下创建__init__.py文件   在utils\bbox文件夹下执行python setup.py install   将.pyd文件拷贝到utils\bbox文件夹下 数据介绍:检测图片当

  • 支持向量机 SVM - Wenjing2019-12-14 22:02:15

    概念 将向量映射到一个更高维的空间里,在这个空间里建立有一个最大间隔超平面。在分开数据的超平面的两边建有两个互相平行的超平面,分隔超平面使两个平行超平面的距离最大化。假定平行超平面间的距离或差距越大,分类器的总误差越小。 基本模型是定义在特征空间上的间隔最大的线性

  • ReentrantLock加锁解锁过程2019-11-23 12:57:09

    公平锁 调用lock方法加锁   进入acquire方法获取加锁的许可    进入tryacquire    首先获取当前线程和status状态,status默认为0 假如现在t1线程进入,然后t2线程进入(t2进入时t1还没有释放锁) if c==0成立,然后判断是否需要排队,调用hasqueuedpredecessors方法    此时的头和

  • sklearn里计算roc_auc_score,报错ValueError: bad input shape2019-10-28 09:03:05

    用sklearn的DecisionTreeClassifer训练模型,然后用roc_auc_score计算模型的auc。代码如下 clf = DecisionTreeClassifier(criterion='gini', max_depth=6, min_samples_split=10, min_samples_leaf=2)clf.fit(X_train, y_train)y_pred = clf.predict_proba(X_test)roc_auc = roc_a

  • sklearn.metrics中的评估方法介绍(accuracy_score, recall_score, roc_curve, roc_auc_score, confusion_matrix)2019-10-23 22:51:50

    1 accuracy_score:分类准确率分数是指所有分类正确的百分比。分类准确率这一衡量分类器的标准比较容易理解,但是它不能告诉你响应值的潜在分布,并且它也不能告诉你分类器犯错的类型。常常误导初学者:呵呵。 sklearn.metrics.accuracy_score(y_true, y_pred, normalize=True, sample_we

  • Keras MAE和MSE source code2019-10-21 18:04:27

    def mean_squared_error(y_true, y_pred): if not K.is_tensor(y_pred): y_pred = K.constant(y_pred) y_true = K.cast(y_true, y_pred.dtype) return K.mean(K.square(y_pred - y_true), axis=-1) def mean_absolute_error(y_true, y_pred): if n

  • # XX 课堂之ReentrantLock源码学习总结 (一)2019-10-16 13:53:36

    [^ ]: 以下源码分析基于JDK1.8 ReentrantLock 示例 private ReentrantLock lock = new ReentrantLock(true); public void f(){ try { lock.lock(); //do something } finally { lock.unlock(); }

  • 结合OpenCV与TensorFlow进行人脸识别2019-10-11 15:03:21

      作为新手来说,这是一个最简单的人脸识别模型,难度不大,代码量也不算多,下面就逐一来讲解,数据集的准备就不多说了,因人而异。   一. 获取数据集的所有路径   利用os模块来生成一个包含所有数据路径的list   def my_face():   path = os.listdir("./my_faces")   image_pat

  • kaggle之Digit Recognizer2019-09-11 10:00:52

    文章目录model的建立数据的预处理以及数据增强训练完后模型的评测总结     没有数据的预先处理,也没有没有数据增强,直接上神经网络训练然后测试,虽然准确率大致为0.97,但是排名为两千多名。之后在评论区找到一个评价较好且预测准确率较高的笔记参考下,还是有很多不足。一是

  • Sklearn K均值聚类2019-09-02 09:01:17

    ## 版权所有,转帖注明出处 章节SciKit-Learn 加载数据集 SciKit-Learn 数据集基本信息 SciKit-Learn 使用matplotlib可视化数据 SciKit-Learn 可视化数据:主成分分析(PCA) SciKit-Learn 预处理数据 SciKit-Learn K均值聚类 SciKit-Learn 支持向量机 SciKit-Learn 速查 到目前为止

  • 第7章 模型评估2019-09-01 17:01:24

    7.1 分类模型评估 1、二分类   混淆矩阵中对角线的元素代表正确分类的数量;   非对角线元素代表错误分类的数量。 所以最为理想的模型(拿测试集来看),应该是一个对角阵。若无法得到对角阵,对角线上的数字之和如果占统治地位也是可以的。 片面的追求查准率可能会降低召回率    2

  • Pytorch实现Top1准确率和Top5准确率2019-08-21 23:57:51

    之前一直不清楚Top1和Top5是什么,其实搞清楚了很简单,就是两种衡量指标,其中,Top1就是普通的Accuracy,Top5比Top1衡量标准更“严格”, 具体来讲,比如一共需要分10类,每次分类器的输出结果都是10个相加为1的概率值,Top1就是这十个值中最大的那个概率值对应的分类恰好正确的频率,而Top5则是在

  • cs231n__4.2 神经网络 Neural networks2019-08-18 09:00:08

    CS231n 学习笔记 4.2 神经网络 Neural networks 之前我们已经使用了 很多线性分类函数 现在我们不用单变换的: 我们首先有线性层,然后有这个非线性计算,继而在顶层再加入另一个线性层。然后到这里,最后我们可以得到一个计分函数。输出计分向量。 一般来说,神经网络就是由简单函数构成

  • AbstractQueuedSynchronizer(AQS)源码分析2019-08-11 22:51:11

      学习是一个循序渐进的过程,在学习现场池相关知识的时候,注意到线程池使用了阻塞队列,阻塞队列LinkedBlockingQueue中又使用到了ReentrantLock可重入锁,因此先对ReentrantLock展开学习。   ReentrantLock中很重要的一部分是Sync,他继承了AQS(AbstractQueuedSynchronizer),AQS提供

  • scikitlearn库中调用K近邻算法的操作步骤2019-08-03 13:52:12

    1、k近邻算法可以说是唯一一个没有训练过程的机器学习算法,它含有训练基础数据集,但是是一种没有模型的算法,为了将其和其他算法进行统一,我们把它的训练数据集当做它的模型本身。2、在scikitlearn中调用KNN算法的操作步骤如下(利用实际例子举例如下):#1导入相应的数据可视化模块import nu

  • Invalid operator< assertion error解析2019-08-02 14:02:15

    原文链接:http://www.cnblogs.com/richard-g/p/3589563.html 这两天忙着在准备3月份打PAT考试,许久没有接触刷题了,各种生疏各种忘记,刷题速度那是一个慢,真是为自己智商着急。今天刷题碰到了一个有意思的编程习惯性错误,好几道题都涉及到自定义排序,需要自己

  • 吴裕雄--天生自然 python数据分析:基于Keras使用CNN神经网络处理手写数据集2019-07-27 18:55:30

    import pandas as pdimport numpy as npimport matplotlib.pyplot as pltimport matplotlib.image as mpimgimport seaborn as sns%matplotlib inlinenp.random.seed(2)from sklearn.model_selection import train_test_splitfrom sklearn.metrics import confusion_matriximp

  • keras损失函数详解2019-07-27 09:00:27

    以下信息均来自官网 ------------------------------------------------------------------------------------------------------------ 损失函数的使用 损失函数(或称目标函数、优化评分函数)是编译模型时所需的两个参数之一: model.compile(loss='mean_squared_error', optimizer=

  • 长话短说stacking集成学习算法,保证你能看得懂(2)2019-07-22 21:08:06

    第一步,进行初级学习,生成次级学习器的训练集(X_train_new,y_train)和测试集(X_test_new,y_test) (篇幅所限,我们在此假设每个基模型都是经过参数调优处理的优良模型,具体如何进行参数优化请参见相关文献) 如上所述,次级学习器的训练集的X_train_new,X_test_new是初级学习的预测结果组

  • LGB+XGB+CNN一般写法2019-07-17 19:03:46

    现在的比赛,想要拿到一个好的名次,就一定要进行模型融合,这里总结一下三种基础的模型: - lightgbm:由于现在的比赛数据越来越大,想要获得一个比较高的预测精度,同时又要减少内存占用以及提升训练速度,lightgbm是一个非常不错的选择,其可达到与xgboost相似的预测效果。 - xgboost:在lightgbm出

  • numpy 定义一个rnn_cell_forward2019-07-15 21:43:33

        import numpy as np def softmax(x): e_x = np.exp(x - np.max(x)) return e_x / e_x.sum(axis=0) def rnn_cell_forward(xt, a_prev, parameters): Wax = parameters["Wax"] Waa = parameters["Waa"] Wya = parameters["

  • numpy之线性预测2019-07-10 14:07:12

    线性预测:通过一组yi'zhi已知输入和输出可以构建出一个简单的线性方程,这样可以把预测输入带入线性方程从而求得预测输出,达到数据预测的目的。 Numpy提供的求解线性方程组模型参数的API为np.linalg.lstsq(A,B)[0] 示例代码: import numpy as npimport matplotlib.pyplot as mpimport

  • ReentrantLock 的公平锁源码分析2019-07-02 18:03:55

    ReentrantLock 源码分析   以公平锁源码解析为例: 1:数据结构: 维护Sync 对象的引用:   private final Sync sync; Sync对象继承 AQS,  Sync  分为两个类:处理公平锁锁和非公平锁: FairSync   NonfairSync  具体的类图如下:    2:接下来重点分析AQS这个类:AbstractQueuedSynchro

  • 多线程(十、AQS原理-ReentrantLock实现)2019-06-13 20:55:04

    ReentrantLock介绍 ReentrantLock 基于AQS实现了公平和非公平的独占锁功能。 ReentrantLock定义AQS的同步状态(synchronization state)如下: State为0表示锁可用;为1表示被占用;为N表示锁重入的次数,是独占资源。 ReentrantLock实现公平锁原理 案例代码如下: 1、启动文件 public class Mai

  • 双向循环链表模板类(C++)2019-06-10 20:04:28

    双向链表又称为双链表,使用双向链表的目的是为了解决在链表中访问直接前驱和后继的问题。其设置前驱后继指针的目的,就是为了节省其时间开销,也就是用空间换时间。 在双向链表的每个节点中应有两个链接指针作为它的数据成员:pred指向其前驱节点,next指向其后继节点。再加上数据域,因此每

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有