ICode9

精准搜索请尝试: 精确搜索
  • Paper Reading -- 《Spectral-Spatial Attention Networks for Hyperspectral Image Classification》2020-02-20 14:01:23

    论文:《Spectral-Spatial Attention Networks for Hyperspectral Image Classification》 1. Motivation 在CNN和RNN中引入attention机制: RNN + attention:学习波谱内部相关性 CNN + attention:关注空间维的显著特征以及相邻像元的空间相关性 2. Structure of Model 总体思

  • 多标签分类(multilabel classification ) 这几天看了几篇相关的文章, 写篇文章总结一下,就像个小综述一样, 文章会很乱    1、multilabel classifica2020-02-07 09:42:50

     这几天看了几篇相关的文章, 写篇文章总结一下,就像个小综述一样, 文章会很乱    1、multilabel classification的用途          多标签分类问题很常见, 比如一部电影可以同时被分为动作片和犯罪片, 一则新闻可以同时属于政治和法律,还有生物学中的基因功能预测问题, 场

  • 机器学习:学习的分类2020-02-06 15:04:05

    Supervised learning——SVM,Neural,networks Unsupervised learning——Clustering,EM algorithm,PCA Semi-Supervised learning Reinforcement learning——自动驾驶 graph LR A[Supervised learning] --> B(classification) A --> C(regression) B --通用--> C 可以使用回

  • 机器学习-TensorFlow应用之classification和ROC curve2020-02-01 22:53:50

    概述 前面几节讲的是linear regression的内容,这里咱们再讲一个非常常用的一种模型那就是classification,classification顾名思义就是分类的意思,在实际的情况是非常常用的,例如咱们可以定义房价是否过高,如果房价高于100万,则房价过高,设置成true;如果房价低于100万,则房价不高,target就

  • AssertionError: Input is not a training model (no 'regression' and 'classification�2020-01-23 15:35:50

    AssertionError: Input is not a training model (no 'regression' and 'classification' outputs were found, outputs are: ['filtered_detections', 'filtered_detections', 'filtered_detections'])#1196   参见:https:/

  • K-means VS K-NN and 手肘法2020-01-21 23:53:42

    1. The difference between classification and clustering. from here. Classification: supervised learning with labels. Clustering: unsupervised learning without labels.  Classification and Clustering are the two types of learning methods which characterize

  • Best Resources for Imbalanced Classification2019-12-26 09:02:58

    Best Resources for Imbalanced Classification 2019-12-26 08:47:39   Source: https://machinelearningmastery.com/resources-for-imbalanced-classification/      Classification is a predictive modeling problem that involves predicting a class label for a give

  • python-Keras MLP分类器不学习2019-12-10 20:56:26

    我有这样的数据 有29列,其中我必须预测winPlacePerc(数据帧的最末端)在1(高perc)到0(低perc)之间 在29列25中,数字数据3是ID(对象)1是类别 我删除了所有Id列(因为它们都是唯一的),并且还将categorical(matchType)数据编码为一种热编码 完成所有这些操作后,我剩下41列(热一遍) 这

  • python scikit中更快的数据拟合(或学习)功能2019-11-22 10:05:28

    我正在将scikit用于机器学习.尽管我完全按照其官方文档中的步骤进行操作,但是遇到两个问题.这是代码的主要部分: 1)trdata是使用sklearn.train_test_split创建的训练数据.2)ptest和ntest分别是阳性和阴性的测试数据 ## Preprocessing scaler = StandardScaler(); scaler.fit(trdat

  • c#-在Accord.net Framework中使用Liblinear进行多重分类2019-11-20 14:09:33

    我需要使用Liblinear实现多个分类器. Accord.net机器学习框架提供了所有Liblinear属性,但Crammer和Singer的用于多类分类的公式除外. This is the process.解决方法:学习多类机器的通常方法是使用MulticlassSupportVectorLearning class.该类可以教一对多的机器,然后可以使用投票或

  • Python音频信号分类MFCC特征神经网络2019-11-19 20:57:30

    我正在尝试将语音信号从语音到情感进行分类.为此,我要提取音频信号的MFCC特征并将其馈入一个简单的神经网络(由PyBrain的BackpropTrainer训练的FeedForwardNetwork).不幸的是,结果非常糟糕.因此,从5个班级中,网络似乎几乎总是提出相同的班级. 我有5种情感类别和大约7000个带有标签

  • python-IndexError:数组的索引过多.具有42个特征的块状数组不均一2019-11-18 17:59:28

    我正在尝试实例化测试集进行分类,加载具有41个特征和1个标签的数据集: import numpy as np f = open("mydataset") dataset = np.genfromtxt(f, delimiter=',', dtype=None) X = dataset[:, 0:40] # select columns 1 through 41 y = dataset[:, 41] # select column 42 (the l

  • Python中的随机森林:分类问题的最终概率2019-11-18 02:59:13

    在分类问题中,RF分类器根据多数投票(例如,投票结果)给出最终答复.是或否. 另一方面,在Python中,我还可以看到带有事件最终概率的向量,例如0,83.如果我有1000个估计量,每棵树有1000个概率的平均值,那么该概率如何计算? clf = RandomForestClassifier(max_depth = 4, min_samples_spl

  • Python NLTK最大熵分类器错误2019-11-01 13:05:54

    我目前正在使用NLTK的朴素贝叶斯分类器,但是我也想尝试Max Ent分类器.从文档看来,该功能集应采用与Naive Bayes相同的格式,但是由于某些原因,在尝试时会出现此错误: File "/usr/lib/python2.7/site-packages/nltk/classify/maxent.py", line 323, in train gaussian_prior_si

  • 关系抽取 -- ARNOR:Attention Regularization based Noise Reduction for Distant Supervision Relation Classi2019-10-30 19:01:57

    一。概述   提出了新的一种通过pattern来减少远程监督中的噪声。ARNOR认为一个可以信赖的关系的标签可以被神经网络解释的。ARNOR框架迭代的去学习一个可以解释的模型并利用它去选择新的可以信赖的实例。本文作者提出通过pattern来进行确定信赖的关系标签。   二。现状分析  

  • python-计算k均值的距离时的环绕2019-10-30 12:58:37

    我正在尝试使用sklearn对某些数据集进行K-均值聚类.问题在于,其中一个维度是一天中的一个小时:一个介于0-23之间的数字,因此距离算法认为0与23的距离非常远,因为从绝对意义上来说,它是23.实际上,出于我的目的,小时0非常接近小时23.是否有一种方法可以使距离算法进行某种形式的环绕,

  • python-如何使用OpenCV和SIFT查找我的训练图像的多个实例2019-10-29 17:55:52

    到目前为止,我已经能够使用BFMatcher非常准确地从查询图像中的训练图像中检测关键点.但是,我的查询图像(蜂巢的框架)中有数十个训练图像(蜜蜂)的实例.是否可以使用SIFT查找另一个图像的多个独立实例? 理想情况下,我希望能够与上面的图像相吻合,使我可以将查询图像中的4个关键点与多

  • java-使用openNLP maxent的训练模型2019-10-29 10:02:30

    我有黄金数据,在其中注释了几个文档中的所有房间号.我想使用openNLP来训练一个使用此数据并对房间号进行分类的模型.我被困在哪里开始.我阅读了openNLP maxent文档,看了opennlp.tools中的示例,现在看了opennlp.tools.ml.maxent-似乎这是我应该使用的东西,但我仍然不知道如何使用.有

  • SVM classifier.predict()中的Python错误2019-10-28 12:55:54

    在Python中使用以下命令对新数据进行分类时,出现以下错误: classifier.predict(new_data) AttributeError:python’SVC’对象没有属性_dual_coef_ 但是在我的笔记本电脑中,该命令运行正常!怎么了?解决方法:我有这个确切的错误 AttributeError:python’SVC’对象没有属性_dual_coef_当

  • pytorch之 classification2019-10-26 14:03:48

    1 import torch 2 import torch.nn.functional as F 3 import matplotlib.pyplot as plt 4 5 # torch.manual_seed(1) # reproducible 6 7 # make fake data 8 n_data = torch.ones(100, 2) 9 x0 = torch.normal(2*n_data, 1) # class0 x data (tensor), shape=(10

  • Image classification notes2019-10-26 10:50:30

    label   an image is represented as one large 3-dimensional array of numbers total numbers : 248*400*3 (wide*height*rgb(3 channels)) each number ranges from 0~255   Target: be invariant to the cross product of all these variations, while simultaneously ret

  • python-如何在sklearn中的每个交叉验证模型中计算特征重要性2019-10-11 21:55:20

    我使用RandomForestClassifier()与10倍交叉验证,如下所示. clf=RandomForestClassifier(random_state = 42, class_weight="balanced") k_fold = StratifiedKFold(n_splits=10, shuffle=True, random_state=42) accuracy = cross_val_score(clf, X, y, cv=k_fold, scoring = �

  • python-根据相似性对图像进行分类2019-10-10 01:05:08

    我有30,40张人类图片,我想用Python代码得到.并制作一组类似的照片.像约翰的5张照片和彼得的10张照片.像这样 .我是图像处理方面的新手.所以我的问题是哪种算法最适合这个.我想在AWS lambda函数上执行此操作.任何帮助将不胜感激. P.S(这是我在该领域的第一个任务.请忽略告诉我改善它

  • python – 以y_true依赖于y_pred的方式自定义Keras的丢失函数2019-10-08 03:58:19

    我正在研究多标签分类器.我有很多输出标签[1,0,0,1 …],其中1表示输入属于该标签,0表示否则. 在我的情况下,我使用的损失函数基于MSE.我想以一种方式改变损失函数,当输出标签为-1时,它将改变为该标签的预测概率. 检查附加的图像,以便最好地理解我的意思: 场景是 – 当输出标签为-1时

  • python – sklearn LogisticRegression并更改分类的默认阈值2019-10-06 11:58:26

    我正在使用sklearn包中的LogisticRegression,并且有一个关于分类的快速问题.我为我的分类器建立了一条ROC曲线,结果证明我的训练数据的最佳阈值大约为0.25.我假设创建预测时的默认阈值是0.5.如何进行10倍交叉验证时,如何更改此默认设置以了解模型的准确度?基本上,我希望我的模型能够

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有