ICode9

精准搜索请尝试: 精确搜索
  • Python 之 计算psnr和ssim值2019-12-04 13:56:01

      基于python版的PSNR和ssim值计算   总所周知,图像质量评价的常用指标有PSNR和SSIM等,本博文是基于python版的图像numpy的float64格式和uint8格式计算两种指标值(附代码),代码经多方测试和对比,是可用的。   psnr峰值信噪比   psnr是用来评价两幅图像相比质量的好坏,即失真情

  • PCA降维-最大,最小方差解释2019-10-31 19:01:23

    转自http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020209.html http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020216.html 几个特别有用 的链接: 更加深入理解pca,在斯坦福大学的机器学习上的更加深入的分析。。 http://blog.csdn.net/ybdesire/article/details

  • 机器学习:李宏毅:概率分布生成概率模型2019-10-27 21:03:28

    1.概率分布 由于前面学习的是回归,因此我们通过回归的方法来查看概率分布 分类是class 1 的时候结果是1 分类为class 2的时候结果是-1; 测试时,如果结果接近1的是class1 ,如果结果接近-1的是class2。 但是呢,这只是看起来很美丽,但是如果当结果远远大于1的时候,他的分类应该是cla

  • Pandas 常用函数汇总2019-10-14 14:06:45

    s : 指 Pandas 中的序列 , DataFrame/Series对象 s.min()      若为DataFrame 则返回每一列的最小值,若为Series则返回最小值 s.max()    求最大 s.sum()     求和 s.mean()   求平均 s.count()    计数,非缺失元素 s.size()    计数,所有元素 s.median()   中位数 s.

  • 光束法平差(BA)之最小二乘求解及协方差矩阵(Covariance)2019-09-21 17:07:50

    一.非线性最小二乘优化 1. Introduction 最小值问题(局部或全局) 要求目标函数连续可倒有极值,不是极值问题的要抽象成极值,比如取平方。 极值问题=>求驻点,即 线性问题直接求解,但对于非线性问题因为存在泰勒级数展开时的近似,只能采取从初值x0逐步迭代逼近的方法,即求每一步迭代的改

  • 书到用时方恨少2019-09-16 20:55:25

    研一开了很多专业课,当时都是以分数为目标,并没有好好理解学习,现在终于尝到了苦果。 模糊度的固定用到了大量的数理统计和矩阵分析的知识,仅仅是模糊度协方差阵的降相关处理都不是很理解,更别提将来要编程实现整个模糊度固定的流程。 sad!

  • 【转】协方差与相关系数2019-09-13 09:56:04

    转载:http://redstonewill.com/1511/ 什么是协方差(Covariance)? 1 协方差表示的是两个变量的总体的误差,这与只表示一个变量误差的方差不同。 如果两个变量的变化趋势一致,也就是说如果其中一个大于自身的期望值,另外一个也大于自身的期望值,那么两个变量之间的协方差就是正值。 如果两

  • 第97:一文读懂协方差与协方差矩阵2019-09-01 16:50:22

                                     

  • 特征相关性2019-08-29 12:01:18

    一、期望  1、离散型随机变量    二、方差    三、协方差  四、相关性 

  • 机器学习——特征工程之数据相关性2019-08-27 18:02:30

    机器学习——特征工程之数据相关性前言图表相关性协方差和协方差矩阵代码实现相关系数1、皮尔逊相关系数( Pearson correlation coefficient)2、斯皮尔曼相关性系数、秩相关系数(spearman correlation coefficient)3、Kendall Rank(肯德尔等级)相关系数信息熵和互信息 前言 在样

  • numpy股票相关性分析2019-08-20 23:53:03

    基础知识-协方差 协方差其意义: 度量各个维度偏离其均值的程度。协方差的值如果为正值,则说明两者是正相关的(从协方差可以引出“相关系数”的定义),结果为负值就说明负相关的,如果为0,也是就是统计上说的“相互独立”。如果正相关,这个计算公式,每个样本对(Xi, Yi), 每个求和项大部分都是

  • MATLAB-数据统计分析2019-08-17 16:05:54

    一、统计量   表示位置的统计量—平均值和中位数.    平均值(或均值,数学期望):  中位数:将数据由小到大排序后位于中间位置的那个数值. 2. 表示变异程度的统计量—标准差、方差和极差.    标准差:          它是各个数据与均值偏离程度的度量.    方差:标准差

  • 最大似然估计、n阶矩、协方差(矩阵)、(多元)高斯分布 学习摘要2019-08-15 16:07:21

    最大似然估计 似然与概率 在统计学中,似然函数(likelihood function,通常简写为likelihood,似然)和概率(Probability)是两个不同的概念。概率是在特定环境下某件事情发生的可能性,也就是结果没有产生之前依据环境所对应的参数来预测某件事情发生的可能性,比如抛硬币,抛之前我们不知道最后是

  • 5种常用的相关分析方法2019-07-08 20:06:03

    转自:https://blog.csdn.net/longxibendi/article/details/82558801 from: http://bluewhale.cc/2016-06-30/analysis-of-correlation.html 相关分析(Analysis of Correlation)是网站分析中经常使用的分析方法之一。通过对不同特征或数据间的关系进行分析,发现业务运营中的关键

  • 估计一个点云的表面法线2019-07-07 21:08:55

    表面法线是几何体表面的重要属性,在很多领域都有大量应用,例如:在进行光照渲染时产生符合可视习惯的效果时需要表面法线信息才能正常进行,对于一个已知的几何体表面,根据垂直于点表面的矢量,因此推断表面某一点的法线方向通常比较简单。然而,由于我们获取的点云数据集在真实物体的表面

  • 从头实现主成分分析(PCA)--Python2019-06-29 16:31:43

    主成分分析是一种常用的降维方法,多见于数据预处理阶段,其伪代码如下: 输入:样本数据集D={x1,x2,x3,x4},低空间维度数d' 过程: 1 对所有样本进行中心化(每个特征维度都减去其均值) 2 计算所有样本的协方差矩阵 3 对协方差矩阵进行特征分解 4 取最大的d'个特征值的对应特征向

  • 线性判别分析(LDA),二次判别分析(QDA)和正则判别分析(RDA)2019-06-12 21:51:19

    判别分析包括可用于分类和降维的方法。线性判别分析(LDA)特别受欢迎,因为它既是分类器又是降维技术。二次判别分析(QDA)是LDA的变体,允许数据的非线性分离。最后,正则化判别分析(RDA)是LDA和QDA之间的折衷。 本文主要关注LDA,并探讨其在理论和实践中作为分类和可视化技术的用途。由于QDA

  • numpy.random.multivariate_normal()函数解析2019-06-01 23:41:11

    NumPy(Numerical Python) 是 Python 语言的一个扩展程序库,支持大量的维度数组与矩阵运算,此外也针对数组运算提供大量的数学函数库。简单的来水numpy在处理多维数组时会特别的方便,是深度学习的得力助手。 numpy.random.multivariate_normal()函数官方解释是从多元正态分布中随机抽取

  • 通俗解释如何理解主成分分析PCA,Python实现PCA主成分分析2维降到1维2019-05-29 21:48:59

    知道IEEE这个世界最大电子电气学术组织禁止华为资助和中国某些一流大学教授参与审稿这个消息我是愤怒的。我也是无奈的,学校考核必须发论文到这儿,不得不发。IEEE上面的论文中国人几乎占了三成(美国人搞学术的很少的基本是做金融法律医生这种行业)。中国在校的就要三千多万大学

  • python笔记:4.1.2.4统计量_离散程度_协方差2019-05-26 17:50:42

    # -*- coding: utf-8 -*- """ Created on Sun May 26 17:12:10 2019 @author: User """ import pandas as pd import numpy as np from scipy import stats stock=np.dtype([('id',np.str,5), ('time',

  • 数据分析需要掌握的数学知识2019-05-20 17:55:16

    显然高中,大学我们都有学习概率论和数量统计,那我们来回顾一下 第一节、微积分的基本概念 1.极限:数列的极限和函数的极限 2 导数:也叫导函数值。又名微商,导数是函数的局部性质。一个函数在某一点的导数 描述了这个函数在这一点附近的变化率 3微分 4积分 5偏导数 第二节、

  • Vamei博客学习笔记(5)2019-05-15 15:52:54

    本文取自: 概率论09 期望 概率论10 方差与标准差 概率论11 协方差与相关系数 概率论13 中心极限定律 数学与编程:“概率论”总结 描述量(descriptor) 描述随机变量最完备的方法是写出该随机变量的概率分布。 概率分步包含了该随机变量的所有信息,全而大,我们填写报名表上面

  • 从高斯过程到贝叶斯优化2019-05-14 16:51:23

    第一篇博客,浅谈自己对高斯过程和贝叶斯优化的理解,有误处欢迎指正。 一. 高斯过程回归   1. 高斯过程到底是个什么东西?!   简单来说,高斯过程可以看成是一个函数,函数的输入是x,函数的输出是高斯分布的均值和方差。   对于一些X值有对应的Y值,从X到Y存在映射关系f,即f(X)=Y,这里我们假

  • 如何衡量一个量化策略的好坏2019-05-06 18:51:43

    转 如何用多因子模型预测投资风险 一、为什么要了解投资风险 在探讨投资风险前,我们不妨思考一个问题:好的投资,取决于哪些因素? 其实,卓越的投资回报,主要来源于四个因素: 收益预测:能形成合力的收益预期; 风险控制:能谨慎地捕捉市场机会; 过程控制:能保持投资方式上的一致性; 成本控制:能

  • R语言中多分类问题 multicalss classification 的性能测量2019-05-06 18:41:42

    判别分析包括可用于分类和降维的方法。线性判别分析(LDA)特别受欢迎,因为它既是分类器又是降维技术。二次判别分析(QDA)是LDA的变体,允许数据的非线性分离。最后,正则化判别分析(RDA)是LDA和QDA之间的折衷。 本文主要关注LDA,并探讨其在理论和实践中作为分类和可视化技术的用途。由于QDA和RDA

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有