ICode9

精准搜索请尝试: 精确搜索
  • PCA人脸识别GUI(ORL+Yale人脸库)2020-02-29 13:02:54

    该系统为基于MATLAB平台的PCA的人脸识别系统,可识别ORL和YALE人脸库,方法实现统一,包括GUI界面。另外可二次开发成摄像头的实时人脸系统,识别出库外人脸,可做成门禁系统,考勤系统,打卡签到系统。实现登记出勤,报警等。 含论文,详细注释。 点赞 收藏 分享 文章举

  • 机器学习练习之人脸识别(SVM)2020-02-22 15:51:20

    PCA:主成分分析 svm的两个参数: c惩罚系数,即对误差的宽容度。c越高,越不能容忍出现误差,容易过拟合;c越小,容易欠拟合,c过大或过小,泛化能力都会变差 gamma是选择rbf函数作为kernal后,该函数自带的一个参数,隐含的决定了数据映射到新的特征空间后的分布,gmma越大,支持向量越少,gmma越小,支持向量

  • 特征提取:PCA主成分分析法和NMF非负矩阵分解法2020-02-06 18:07:03

    1 from sklearn.datasets import load_wine 2 from sklearn.preprocessing import StandardScaler 3 wine=load_wine() 4 X,y=wine.data,wine.target 5 scaler=StandardScaler() 6 X_scaled=scaler.fit_transform(X) 1 from sklearn.decomposition import PCA 2 pca=PCA(n_c

  • 机器学习:学习的分类2020-02-06 15:04:05

    Supervised learning——SVM,Neural,networks Unsupervised learning——Clustering,EM algorithm,PCA Semi-Supervised learning Reinforcement learning——自动驾驶 graph LR A[Supervised learning] --> B(classification) A --> C(regression) B --通用--> C 可以使用回

  • NMF人脸数据特征提取2020-02-05 19:00:54

    非负矩阵分解(NMF) 非负矩阵分解是在矩阵中所有元素均为非负数约束条件之下的矩阵分解方法。 基本思想:给定一个非负矩阵V,NMF能够找到一个非负矩阵W和一个非负矩阵H,使得矩阵W和H的乘积近似等于矩阵V中的值。 非负矩阵分解(NMF) W矩阵:基础图像矩阵,相当于从原矩阵V中提取的特征

  • PCA算法步骤2020-02-03 15:37:45

    步骤一:数据中心化——去均值,根据需要,有的需要归一化——Normalized; 步骤二:求解协方差矩阵; 步骤三:利用特征值分解/奇异值分解 求解特征值以及特征向量; 步骤四:利用特征向量构造投影矩阵; 步骤五:利用投影矩阵,得出降维的数据。 点赞 收藏 分享 文章举报

  • 《机器学习实战》笔记(十三):Ch13 - 利用PCA来简化数据2020-01-31 13:35:47

    第13章 利用PCA来简化数据([代码][ch13]) 降维技术 降维的意思是能够用一组个数为d的向量zi来代表个数为D的向量xi所包含的有用信息,其中d<D。假设对一张512512大小的图片,用svm来做分类,最直接的做法是将图按照行或者列展开变成长度为512512的输入向量xi,跟svm的参数相乘。假

  • 机器学习之发明PCA之路2020-01-24 18:04:40

    为什么要降维? 在一些信息表中,常常一件物品它的特征属性有很多很多,往夸张的说可能成千上万甚至几千万个,这样就会造成维度爆炸,计算机负荷不了,并且对资源的消耗也非常大,这时候我们就需要降维,但只要降维那必然会造成信息的丢失,所以我们需要在降维的同时让我们信息丢失尽可能的小,这

  • 第八周 第三部分2020-01-23 12:55:33

      一些应用 PCA 的建议           第八周  编程作业    

  • 矩阵分解之:主成分分析(PCA)2020-01-16 21:06:39

    本文是在参考主成分分析(PCA)原理详解 的基础上 添加一些自己的理解。 1.相关背景 在许多领域的研究与应用中,通常需要对含有多个变量的数据进行观测,收集大量数据后进行分析寻找规律。多变量大数据集无疑会为研究和应用提供丰富的信息,但是也在一定程度上增加了数据采集的工作量。

  • 《文章翻译》PCA&SVD2020-01-16 15:03:54

    目录 Principle Component Analysis && Singular Value Decomposition 一. Intuition of PCA 1.1 去掉多余的特征 1.2 魔幻展示 1.3 难例图解 2. 概念介绍 3. PCA操作 4. SVD操作 Principle Component Analysis && Singular Value Decomposition 一. Intuition of PCA 1.1

  • OPENCV 求轮廓方向2019-12-07 16:07:25

      #include<opencv2\opencv.hpp>using namespace cv;using namespace std;double calcPCAorientation(vector<Point>&pts, Mat &image);int main(int arc, char** argv){ Mat src = imread("3.jpg"); namedWindow("input", W

  • 不使用路由器来实现不同网段(子网)计算机之间通信的方法2019-11-28 13:55:07

      文章针对有IP网络基础知识,对osi和以太网有基本了解的人群!        首先,来看一个常见的问题: -------------------------------------------- Q:不同网段的机器通过二层交换机相连接,它们之间能相互通信吗? A:常规的情况下不同网段需通过网关访问的方式我想你应该是已经了解的~这个

  • 我如何以编程方式为任意数据集生成描述符?2019-11-23 04:08:18

    我目前正在分析一组要分类的图片.分类是通过人工神经网络以监督方式进行的.我有一个测试集,为每个图片分配其类. 我现在想做的是生成很多描述符,然后在这些描述符上执行PCA并进行统计分析,描述符可以描述多少图片的类别. 如何以编程方式为这些图片生成描述符?这也可以帮助我解决将来

  • 在Python中绘制关联圆2019-11-18 14:58:40

    我一直在做一些几何数据分析(GDA),例如主成分分析(PCA).我正在寻找一个Correlation Circle …这些看起来像这样: 基本上,它允许测量变量的特征值/特征向量与数据集的主成分(维度)相关的范围. 有人知道是否有一个python软件包可以绘制这种数据可视化图吗?解决方法:我同意没有在sklearn

  • python-当给定一个数百个数组时,Sklearn PCA返回一个只有一个值的数组2019-11-18 10:59:46

    我编写了一个程序,旨在通过相似度对图像进行分类: for i in g: fulFi = i tiva = [] tivb = [] a = cv2.imread(i) b = cv2.resize(a, (500, 500)) img2 = flatten_image(b) tivb.append(img2) cb = np.array(tivb) iab = trueArray(cb)

  • python-Numpy.eig和PCA中的方差百分比2019-11-05 14:08:25

    Picking up from where we left… 因此,我可以使用linalg.eig或linalg.svd来计算PCA.当它们被喂入相同的数据时,每个返回不同的主成分/特征向量和特征值(我目前正在使用虹膜数据集). 看一下here或将PCA应用于Iris数据集的任何其他教程,我会发现特征值是[2.9108 0.9212 0.1474 0.020

  • PCA推导中矩阵约束下的拉格朗日乘子2019-11-04 20:01:19

    (一)前言 在仔细看PCA推导$^{[1]}$的过程中,一开始进行的非常顺利,但后来被一个求极值的式子卡住,而且这个问题正是为什么取最大$n'$个特征值原因的关键,一卡就是一天,实在是太弱鸡了。。。后来各种找资料,结果西瓜书上写地更简略,只说了利用拉格朗日乘子算得结果,但是在找西瓜书资料的过程

  • Python-计算协方差矩阵— numpy.cov和numpy.dot之间的区别?2019-10-31 22:59:19

    我正在使用3维numpy数组,最终将在其上执行PCA.我首先将3-D数组展平为2-D,以便可以计算协方差(然后是特征值和特征向量). 在计算协方差矩阵时,我使用numpy.cov与numpy.dot得出了不同的结果.如果我的二维数组是(5,9),我想得到一个5×5(即NxN)协方差矩阵.这是我使用numpy.dot获得的.使

  • PCA降维-最大,最小方差解释2019-10-31 19:01:23

    转自http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020209.html http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020216.html 几个特别有用 的链接: 更加深入理解pca,在斯坦福大学的机器学习上的更加深入的分析。。 http://blog.csdn.net/ybdesire/article/details

  • 随机PCA .explained_variance_ratio_在sklearn 0.15.0中的总和大于12019-10-29 09:55:44

    当我使用sklearn .__ version__ 0.15.0运行此代码时,我得到一个奇怪的结果: import numpy as np from scipy import sparse from sklearn.decomposition import RandomizedPCA a = np.array([[1, 0, 0, 0, 0, 1, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1, 0, 0,

  • sklearn PCA无法正常工作2019-10-28 05:09:37

    我一直在玩sklearn PCA,它的运行方式很奇怪. from sklearn.decomposition import PCA import numpy as np identity = np.identity(10) pca = PCA(n_components=10) augmented_identity = pca.fit_transform(identity) np.linalg.norm(identity - augmented_identity) 4.59977490

  • 使用PCA进行特征降维2019-10-24 16:03:44

    特征降维: 特征降维是无监督学习的另一个应用,目的有二:其一,我们会经常在实际项目中遭遇特征维度非常之高的训练样本,而往往又无法借助自己的领域知识人工构建有效特征; 其二,在数据表现方面,我们无法用肉眼观测超过三个维度的特征。因此,特征降维不仅重构了有效的低维度特征向量,同时

  • python-TypeError网格搜索2019-10-14 00:58:04

    我曾经创建循环来为模型找到最佳参数,这增加了我的编码错误,因此我决定使用GridSearchCV. 我正在尝试为我的模型找出PCA的最佳参数(我要在其上进行网格搜索的唯一参数).在此模型中,归一化后,我想将原始特征与PCA简化特征结合起来,然后应用线性SVM.然后,我保存整个模型以预测我的输

  • 使用PCA时出现数学域错误2019-10-11 19:57:36

    我正在使用python的scikit-learn包来实现PCA. domain error : C:\Users\Akshenndra\Anaconda2\lib\site-packages\sklearn\decomposition\pca.pyc in _assess_dimension_(spectrum, rank, n_samples, n_features) 78 for j in range(i + 1, len(spectrum)):

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有