ICode9

精准搜索请尝试: 精确搜索
  • 基础决策树算法2021-12-19 11:33:47

    (原创)本文讨论机器学习的基础的决策树算法 1.预备知识:信息度量的相关量 (1)信息熵 使用信息熵来度量信息的不确定性信息熵的数学式为: 加和 -plogp,熵越大,不确定性越大 (2)信息增益,某特征下信息增益 = 原熵 - 按特征A分割后的熵信息增益越大的,说明对不确定性的削弱越高,那么应该优先该特征

  • 压摆率2021-12-17 10:36:43

    压摆率也称转换速率。压摆率的意思就是运算放大器输出电压的转换速率,单位有通常有V/s,V/ms和V/μs三种,它反映 的是一个运算放大器在速度方面的指标。一般来说,压摆率高的运放,其工作电流也越大,亦即耗电也大的意思。但压摆率却是高速运放的重要指标 一、SR压摆率  压摆率的意思就是运

  • MATLAB Communication System(9)通信系统的滤波器2021-12-15 12:30:00

    1.滤波器概述 MATLAB专门提供了滤波器设计工具箱。 在命令行输入filterDesigner命令,或者在APP里 即可打开滤波器分析和设置界面   Simulink中Digital Filter Design模块将实现设计结果 2.滤波器MATLAB函数 2.1模拟滤波器 2.1.1巴特沃斯滤波器原型 说明 [z,p,k] = buttap(n)

  • 分类:决策树2021-12-06 19:34:43

    基础概念 信息熵 当前样本集合 D 中第 k 类样本所占的比例为 pk ,则 D 的信息熵定义为: 信息熵是度量样本集合纯度最常用的一种指标。信息熵越低,则样本的纯度越高。 条件熵 在已知样本属性a的取值情况下,假设离散属性 a 有 V 个可能的取值样本集合中,属性 a 上取值为av 的样本集

  • 决策树基础学习2021-12-02 15:34:31

    信息熵: 信息熵是1948年美国数学家香农提出的概念,他是用来表示随机数据不确定性的度量。 信息熵越大,也就意味着越不稳定,信息熵越小,说明数据是越稳定(越接近或者类似)。 信息熵的公式是: 信息熵的单位是比特(bit)就是我们在编程中用来计算数据大小的单位。 信息增益: 信息增

  • 决策树算法2021-11-27 12:31:07

    信息熵 在之前的博文里,推到了KL散度、熵和极大似然的关系,理解了这个其实信息熵也很好理解。 对于随机变量\(X\) 有: \[P(X=x_i) = p_i \]因此\(X\) 这个随机分布的熵就是: \[H(X) = -\sum_{i=1}^n p_i \log p_i \]但我们谈变量的熵的时候,实际上谈的是分布。熵代表的物理意义就是我们

  • 【人工智能导论:模型与算法】信息熵 交叉熵2021-11-27 10:31:16

    【人工智能导论:模型与算法】 P124 交叉熵;梯度下降法;学习率 P127 信息熵;信息增益 这几个知识点需要科普一下。   交叉熵:度量两个概率分布间的差异性信息。 信息熵:系统有序化程度的一个度量。香农用信息熵的概念来描述信源的不确定度。   信息熵:表示随机变量的不确定性。 条件熵

  • 决策树(一)2021-11-23 15:58:00

    基本流程 决策树是异类常见的机器学习方法,以二分类任务为例,我们希望从给定训练数据集学得一个模型以对新示例进行分类,决策树是基于树的结构进行决策的。 一般地,一颗决策树包含一个根节点,若干个内部节点和若干个叶节点,叶节点对应于决策结果,其他各个节点则对应于下一个属性测试

  • 记录篇:【百面机器学习】第一章.特征工程---特征归一化2021-11-22 21:00:47

    为什么需要对数值类型的特征做归一化?   为了消除数据特征之间的量纲影响,我们需要对特征进行归一化的处理,使得不同指标之间具有可比性。    例如:分析一个人的身高和体重对健康的影响,如果使用米(m)和千克(kg)作为单位,那么身高特征会在1.6~1.8m的数值范围内,体重特征会在50~100kg的范围

  • 1. 决策树算法简介2021-11-06 22:35:18

    1. 决策树算法简介 决策树思想的来源非常朴素,程序设计中的条件分支结构就是if-else结构,最早的决策树就是利用这类结构分割数据的一种分类学习方法 决策树:是一种树形结构,其中每个内部节点表示一个属性上的判断,每个分支代表一个判断结果的输出,最后每个叶节点代表一种分类结果,本质是

  • 卡尔曼滤波的理解和总结2021-11-06 16:34:15

    前言 最近仔细学了一下卡尔曼滤波,在本文写写对卡尔曼滤波的理解和总结 链接 推荐一个比较好的卡尔曼学习的文章 详解卡尔曼滤波原理_清风莞尔的博客-CSDN博客_卡尔曼滤波原理 正文  这就是卡尔曼滤波中预测部分的迭代,接下来加入传感器数据进行校正  这是加入传感器数据进行

  • 运放的带宽的相关概念及应用2021-11-06 15:33:31

    1.什么是带宽           运放的带宽简单来说就是用来衡量一个放大器能处理的信号的频率范围,带宽越高,能处理的信号频率越高,高频特性就越好,否则信号就容易失真,不过这是针对小信号来说的,在大信号时一般用压摆率(或者叫转换速率)来衡量,          列举:说一个放大器的放大倍数

  • PID tuning guide2021-11-03 15:31:09

    最近在学习PID控制算法参数的调节,根据看的matlab的视频做了一些记录。   PID算法 是将 偏差 的 比例( P roportion)、积分( I ntegral) 和 微分( D ifferential) 通过线性组合构成控制量,用这一控制量对被控对象进行控制,这样的控制器称PID控制器。 1. 系统是否是良性系统 系统是否高

  • 人工智能与机器学习(三)-----决策树算法挑选好西瓜学习2021-10-31 19:03:56

    一.简介 决策树是一种基于树结构来进行决策的分类算法,我们希望从给定的训练数据集学得一个模型(即决策树),用该模型对新样本分类。决策树可以非常直观展现分类的过程和结果,一旦模型构建成功,对新样本的分类效率也相当高。 最经典的决策树算法有ID3、C4.5、CART,其中ID3算法是最早被提出

  • 决策树挑出好西瓜2021-10-31 15:04:26

    一.决策树 在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。Entropy = 系统的凌乱程度,使用算法ID3, C4.5和C5.0生成树算法使用熵。这一度量是基于信息学理论中熵的概念。 1.画法 机器学习中,决策树是一个预测模型;他代表的是对象属性与对象值

  • 决策树2021-10-30 23:34:56

    决策树思维导图[3] 1 信息论基础 1.1 熵 熵是度量样本集合纯度最常用的一种指标。假定当前样本集合\(D\)中第\(k\)类样本所占的比例为\(p_{k}(k=1,2,...,|K|)\),则样本集合\(D\)的熵定义为: \[Ent(D)=-\sum_{k=1}^{K}p_{k}log_{2}p_{k} \]\(Ent(D)\)的值越小,则\(D\)的纯度越高。 1.

  • 机器学习之决策树(未完成)2021-10-26 20:02:17

    决策树 例题为选西瓜问题,情景如下:我们要对"这是好瓜吗?“这样的问题 进行决策时,通常会进行一系列的判断或"子决策"我们先看"它是什么颜 色?”,如果是"青绿色",则我们再看"它的根蒂是什么形态?",如果是"蜷 缩",我们再判断"它敲起来是什么声音?",最后?我们得出最终决策:这是个 好瓜.

  • 机器学习——随机森林和决策树的区别(暂记)2021-10-26 17:34:32

    决策树 本质是一颗由多个判断节点组成的树。决策树算法的核心是通过对数据的学习,选定判断节点,构造一颗合适的决策树。 树模型不需要做归一化: 归一化的目的是为了加快梯度下降法的收敛速度,但是决策树模型不需要计算梯度 树模型只考虑特征的划分界限,而不需要考虑特征的值范围 决策

  • 模型的假设检验(F与T)岭回归与Lasso回归 Logistics回归模型 决策树与随机森林 K近邻模型2021-10-24 12:03:51

    模型的假设检验 F检验:提出原假设和备泽假设 之后计算统计量与理论值 最后比较 F检验主要检验的模型是否合理 # 导⼊第三⽅模块 import numpy as np # 计算建模数据中因变量的均值 ybar=train.Profit.mean() # 统计变量个数和观测个数 p=model2.df_model n=train.shape[0] # 计算

  • 决策树思想步骤讲解和常见决策树方法的区别(超级易懂!)2021-10-20 12:58:31

    决策树 决策树算法也算是听过很多遍的算法了,关于那个怎么选择对象的例子也听了许多遍,但是之前一直理解不够深刻,满脑子能够记住的只有那个树的形状和知道要分数据。可是对于怎么分数据,为什么分数据,一些常见的词(信息熵、信息增益、基尼系数)和算法都是什么样子的都不是很清楚。

  • task_12021-10-14 22:32:06

    Task01 信息论基础 决策树分类思想: 用树的节点代表样本集合,通过某些判定条件来对节点内的样本进行分配,将它们划分到当前节点下的子节点,这样决策树希望各个子节点中类别的纯度之和应高于该节点中的类别纯度,达到分类效果。 节点类别纯度: 节点纯度反映的是节点样本标签的不确定

  • 二端口网络分析基础(一)2021-10-09 22:33:01

    一、输入&输出阻抗 如图1所示的二端口网络,$Z_i$、$Z_o$分别为输入输出阻抗,由欧姆定律: 输入阻抗: $z_i=\frac{{\dot{E}}_i}{{\dot{I}}_i} $(欧姆,Ω) 输出阻抗: $z_0=\frac{{\dot{E}}_0}{{\dot{I}}_v}\left|{\atop{\dot{E}}_i=0V}\right.$(欧姆,Ω)                   二、空载&

  • 运放第二篇之运放的应用12021-10-07 17:01:51

    运放的典型应用 信号运算:比例运算、加法运算、减法运算、积分和微分运算、对数和指数运算、乘法和除法运算 信号处理:有源滤波器、电压比较器 反相比例运算电路: 由于理想运放的开环增益无穷大,通过合适的负反馈,实现指定的电压放大倍数。故Auf=(为含负反馈的电压增益,当开环增益

  • 运用时间增益对 gprmax 模拟的探地雷达数据进行处理方法2021-10-05 16:04:14

    运用时间增益方法对 gprmax 模拟的探地雷达数据进行处理 GPR 对地下进行探测时,随着电磁信号向下传播,雷达信号的幅值往往衰减很快。与浅层目标的回波相比,深层回波信号的幅度很小。这些信号需要经过校正处理后才能同时显示出来,即对快速衰减的深层回波信号进行补偿处理。对时变

  • 算法思维01:图形,有效性思想2021-10-05 10:32:49

    序言 首先介绍一下数据结构,再看算法 对于数据结构的介绍,每一个词都得扣,都需要思考 一.数据结构 主要就是数据之间的关系,数据与数据的交互 每个东西既然要动,那就得有依据的动---> 数据它本身是动不了的:要么交互位置,要么从首尾干掉了.. 数据与数据的交互:无法就是判断咱

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有