ICode9

精准搜索请尝试: 精确搜索
  • 【论文解读】Histograms of Oriented Gradients for Human Detection2021-02-07 20:00:35

    论文信息 题目:Histograms of Oriented Gradients for Human Detection作者:Navneet Dalal and Bill Triggs刊物:Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05)DOI:10.1109/CVPR.2005.177 论文整体理解 这

  • 增量式主成分分析(IPCA)2021-01-30 11:32:28

    转载于这篇文章 在这里为了保持主成分维度一致,可以将特征向量矩阵在特征分解时候取之前协方差特征分解时候相同的维度。也就是将k+1维重新设定为k维。

  • python_mmdt:从0到1--实现简单恶意代码分类器(二)2021-01-26 10:36:00

    概述 上篇文章python_mmdt:一种基于敏感哈希生成特征向量的python库(一)我们介绍了一种叫mmdt_hash(敏感哈希)生成方法,并对其中的概念做了基本介绍。本篇,我们重点谈谈mmdt_hash的分类应用场景。 需求场景 设想这么一个需求:有一批文件需要判定是否属于恶意文件,并且需要给出恶意文件所

  • 浅谈主成分分析法2021-01-23 11:31:53

    主成分分析 **目的是将许多相关性很高的变量转化成彼此相互独立或不相关的变量 再从这些变量中选出比原始变数少,能解释大部分数据中的几个新变量(主成分,解释数据的综合性指标)** 步骤 对原始数据进行标准化处理(正规化方法:基于原始数值的均值和标准差进行数据的标准化) i个评价

  • 机器学习数学基础之二方阵的特征分解2021-01-22 12:31:12

    机器学习数学基础之二方阵的特征分解 方阵的特征分解 特征分解的内容在《线性代数》这门课程里边讲过,现在算是对相关内容做一下简单回顾。 【特征值&特征向量】:对于方阵 A A A,若存在一个

  • Feedforward Neural Network Language Model(NNLM)原理及数学推导2021-01-03 20:01:06

    本文来自CSDN博客,转载请注明出处:http://blog.csdn.net/a635661820/article/details/44130285     参考资料: 词向量部分: http://licstar.net/archives/328#s21 ngram部分: http://www.zhihu.com/question/21661274 论文参考: A Neural Probabilistic Language Model     

  • numpy.linalg包函数用法集锦(求逆矩阵,求矩阵行列式的值,求特征值和特征向量,解方程组)2021-01-01 12:57:05

    1.计算逆矩阵 import numpy as np a = np.array([[1, 2], [3, 4]]) # 创建矩阵 inv = np.linalg.inv(a) # 计算逆矩阵 print('逆矩阵:', inv, '\n') 输出结果: 逆矩阵: [[-2. 1. ] [ 1.5 -0.5]] 2.计算特征值和特征向量 a = np.array([[1, 2], [3, 4]]) value = np.lin

  • P12 数据的降维及特征选择2020-12-30 18:35:06

    https://www.bilibili.com/video/BV184411Q7Ng?p=12    注解: 这里了的降维不是指数组的维度,不是1维、2维、3维那个维。    注解: 这个是3维的特征转换为2维的特征。 降维就是把样本的特征的数量减少,比如在分辨男女的时候,把每个样本里面的特征肤色去掉。          

  • 推荐系统--n--模型DeepCrossing和PNN2020-12-21 00:03:04

    微软2016年提出的DeepCrossing 是经典的Embedding+MLP结构。 Embedding + MLP 模型结构 微软把DeepCrossing用于广告推荐这个业务场景上。DeepCrossing从下到上可以分为5层,分别是Feature层、Embedding层、Stacking层、MLP层和Scoring层。 Feature层 feature 层也叫输入特征

  • SVM人脸识别流程的原理讲解(小白向)2020-12-11 18:32:22

    LBP簇+PCA/ICA+SVM LBP簇LBP(Local Binary Pattern)旋转不变性LBP等价模式LBP PCA/ICAPCA(主成分分析)FastPCA(快速主成分分析)FastICA(快速独立成分分析) SVM 上一篇最后说了要先更一篇AI的博文,先拿最近的实验作业补一补。主要讲解理论部分,代码部分后续会补上。 LBP簇 LBP(Local

  • 浅析特征值与特征向量2020-12-05 21:03:29

    最近在学习算法常常遇到特征值和特征向量的问题,一直都一知半解没有领悟到本质。因此特意查阅了相关资料,自己的理解写一篇小结。 1. 矩阵乘法的本质 首先,我们来看一个线性方程式。为了更简洁的表示,我们常常使用矩阵乘法。 \[\begin{cases} 2x+y=m \\ 3x+2y=n \end{cases}

  • 线性代数基本概念2020-11-06 20:33:05

    线性代数概念的理解 Vector / Matrix What’s a vector? 向量实际上是具有n 维属性的一个较为复杂的客观实体 \[x = \{x_1,x_2,...,x_n\} \]Linear transformation:the essence of Matrix 矩阵实际上代表一个线性变换 Basis Basis 一组可以张成该空间的,线性无关的向量的集合称为

  • 线性代数基本的概念2020-10-30 10:00:52

    矩阵 每个矩阵对应一种空间变换,每一列可以看成是一个基向量。 线性变换 在原来空间中等距分布的点,在变换后的空间中仍然保持等距分布 秩和逆 秩代表变换后的空间维数。满秩说明变换后维数不变,可以找到逆变换使其复原;如果不满秩,变换后维数降低了,此时就找不到对应的逆变换使其空间复

  • 8月22日记2020-08-23 07:31:36

    8月22日总结及8月23日计划 总结 英语 今天做了两篇英语完形填空 (回忆)第一篇是讨论“法庭应该与政治政策分离”,对答案的研究发现A、B、C、D选项各出现了5次。其中3处单词不认识,本篇文章在大概读懂的情况下错误了11个。逻辑关系词,动词辨析7,名词辨析,介词辨析,熟词僻意 (回忆)第二篇是探

  • 主成分分析PCA(1)2020-06-05 10:07:32

    参考:https://mp.weixin.qq.com/s/6xsXjUEUm8dB5y6-dInT_w   PCA的数学原理无非一句话: 协方差矩阵的特征值分解 (或者等价地) 原矩阵的奇异值分解   1、PCA:通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。 2、数据的向量

  • 支持向量机(Support Vector Machine)2020-05-25 09:56:48

    知乎上的文章写得很详细 https://zhuanlan.zhihu.com/p/77750026 https://zhuanlan.zhihu.com/p/31886934   SVM在解决线性可分的问题 点到超平面的距离: 因为需要最大化magins,所以优化目标:相当于 subject to:(保证能分对样本) 所以利用拉格朗日乘数法生成目标函数: 目标函数对参数和

  • 机器学习实战基础(一):数据预处理技术2020-05-19 12:51:41

    1.前言 在真实世界中,经常需要处理大量的原始数据,这些原始数据是机器学习算法无法理解的。为了让机器学习算法理解原始数据,需要对数据进行预处理 2.准备工作 编辑文件 preprocessor.py import numpy as np from sklearn import preprocessing data = np.array([[3,-1.5,2,-5.4],

  • 判断矩阵是否与对角型矩阵相似2020-05-18 09:05:59

    判断一个矩阵是否与对角型矩阵相似   矩阵A存在相似对角阵的充要条件是:如果A是n阶方阵,它必须有n个线性无关的特征向量 不同特征值的特征向量肯定线性无关。重根情况下再判断特征矩阵的秩,根据秩与齐次矩阵基础解的个数判断属于这个特征值的线性无关的特征向量的个数

  • 奇异值分解SVD2020-05-13 15:55:58

    奇异值分解SVD原理 特征值和特征向量 特征值和特征向量表示: \[Ax=\lambda x \]其中A是一个\(n\times n\)的实对称矩阵,x是一个n维向量,则我们说\(\lambda\)是一个特征值,而x是矩阵A的特征值\(\lambda\)对应的特征向量。有了特征值和特征向量,我们就可以将矩阵分解。假设我们求出了n个

  • Hello GCN2020-04-05 11:53:37

    参考链接: https://www.zhihu.com/question/54504471/answer/611222866 1 拉普拉斯矩阵参考链接: http://bbs.cvmart.net/articles/281/cong-cnn-dao-gcn-de-lian-xi-yu-qu-bie-gcn-cong-ru-men-dao-jing-fang-tong-qi L = D - A, A 为图的邻接矩阵, D 为顶点度的对角矩阵, L 为

  • 维数灾难与PCA主成分分析2020-03-28 23:07:19

      背景     维数灾难是机器学习中常见的现象,具体是指随着特征维数的不断增加,需要处理的数据相对于特征形成的空间而言比较稀疏,由有限训练数据拟合的模型可以很好的适用于训练数据,但是对于未知的测试数据,很大几率距离模型空间较远,训练的模型不能处理这些未知数据点,从而形成“

  • MATLAB笔记5:矩阵的转置、求逆、旋转、翻转;矩阵的行列式、秩、迹;矩阵的特征值、特征向量2020-03-14 09:05:01

    矩阵的转置、求逆、旋转、翻转 inv(A):求矩阵A的逆矩阵; 转置:A.'为矩阵A的转置,A’为矩阵A的共轭转置; rot90(A,k):将矩阵A逆时针方向旋转90°的k倍,k为1时可省略; fliplr(A):将矩阵A左右翻转; flipld(A):将矩阵A上下翻转。 矩阵的行列式、秩、迹 det(A):求矩阵A的行列式; rank(A):求矩阵

  • python机器学习-chapter3_12020-02-26 21:56:51

    •数据预处理的几种方法: StandardScaler:确保每个特征的平均值为0,方差为1,使得所有特征在同一量级。但不能保证特征任何特定的最大值和最小值。 RobustScaler:与StandardScaler类似,确保每个特征的统计属性在同一范围,但使用中位数和四分位数。会忽略数据中的异常值。 MinMaxScaler:移动

  • CapProNet: Deep Feature Learning via Orthogonal Projections onto Capsule Subspaces 论文笔记2020-02-25 13:43:53

    1、            本文提出了一种关于胶囊网络的新思想,首先将输入的特征向量X通过正交投影到一组胶囊子空间上,然后得到相应的胶囊。     持续更新...... 点赞 收藏 分享 文章举报 RANPL 发布了8 篇原创文章 · 获赞 0 · 访问量 49 私

  • (五)【矩阵论】(线性变换矩阵的相似化简)不同基偶下的矩阵|不变子空间|特征值与特征向量|对角化2020-02-21 21:41:05

    【矩阵论专栏】 文章目录A 线性变换在不同基偶下的矩阵B 线性变换的不变子空间C 线性变换的特征值与特征向量D 线性变换的对角化 A 线性变换在不同基偶下的矩阵 基到基的过渡矩阵P与线性变换在基偶下的矩阵A的联系: 共同点:它们的每一列都是向量的坐标。 不同:过渡矩阵是另外

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有