ICode9

精准搜索请尝试: 精确搜索
  • 泛化误差2021-07-30 09:04:05

    https://zhuanlan.zhihu.com/p/48976706 机器学习简单流程: 使用大量和任务相关的数据集来训练模型; 通过模型在数据集上的误差不断迭代训练模型,得到对数据集拟合合理的模型; 将训练好调整好的模型应用到真实的场景中; 我们最终的目的是将训练好的模型部署到真实的环境中,希望训练好

  • Python可视化(matplotlib)图像之误差可视化(Visualizing Errors)2021-07-29 09:01:57

    Python可视化(matplotlib)图像之误差可视化(Visualizing Errors) 目录 Python可视化(matplotlib)图像之误差可视化(Visualizing Errors) 普通误差图

  • 模型选择、欠拟合和过拟合2021-07-28 16:33:53

    一、前言 将模型在训练数据上拟合得比在潜在分布中更接近的现象称为过拟合(overfitting),用于对抗过拟合的技术称为正则化(regularization)。   二、训练误差与泛化误差 1、训练误差(training error):我们的模型在训练数据集上计算得到的误差。、 2、泛化误差(generalization error):当我们

  • 机器学习基本概念22021-07-28 15:34:21

    2.1经验误差与过拟合 错误率(error rate) 分类错误的样本数目占样本总数的比例 精度(accuracy) 分类正确的样本数目占样本总数的比例;精度=1-错误率 误差(error) 学习器实际预测输出与样本的真实输出之间的差异 训练误差(training error)/经验误差(empirical err

  • 深度学习笔记(九):正则化问题总结2021-07-26 09:32:00

    文章目录 一、正则化的作用二、如何判断过拟合 or 欠拟合三、常见正则化方法(1)L0正则化(2)L1正则化(3)L2正则化(4)其他方法 四、正则化原理五、Dropout正则化(1)Dropout(2)Drop Connect 六、Dropout工作流程 理论系列:     深度学习笔记(一):卷积层+激活函数+池化层+全连接层   

  • 西瓜书 第五章 神经网络2021-07-25 23:02:32

    神经元模型 激活函数: 1.阶跃函数 2.Sigmoid 3.Relu 4.tanh 感知机与多层网络 误差反向传播 1.逐层求偏导 2.Sigmoid的导数 BP 神经网络易遭受过拟合,解决策略: Early StoppingRegularization,可以在误差函数中增加权重的正则项 全局最小与局部极小 采取不同初始化,选取最优局部

  • 【电信学】【2005.01】用于视觉辅助惯性导航的随机约束2021-07-23 23:01:35

    本文为美国MIT(作者:David D. Diel)的硕士论文,共110页。 本文提出了一种基于特征约束的改进的惯性导航方法。提出的方法延长了人类或车辆在缺乏GPS的环境中正确导航的时间。我们的方法与现有的导航系统集成得很好,因为我们调用了表示各种可用硬件的通用传感器模型。惯性模型包括

  • 机器学习笔记122021-07-21 12:36:24

    降维 1.1 目标1:数据压缩 Data Compression 现在来介绍第二个无监督学习:降维,降维的第一个作用就是压缩数据,允许我们使用较少的内存或磁盘空间,也加快算法速度 当我们发现特征中有一些特征是冗余的(比如:特征1是厘米,特征2是英尺),那么我们就需要通过降维来压缩数据 将二维降到一维: 将

  • 李宏毅《机器学习》学习笔记32021-07-17 01:32:31

    误差 模型的误差来源有两个,分别是误差(bias)和方差(variance)。 不同复杂程度的模型倾向于不同的误差类型,复杂度较低的模型的方差较小,也就更集中,但是偏差较大,易欠拟合;复杂模型离散程度更大,但偏差小,易过拟合。 我们要做的,就是在两种误差中权衡,找出相对平衡的模型。 误差改进 偏差大

  • 训练时,训练误差、精度,和验证误差、精度,都保持不变,是个固定值(难受),这是为啥呢?2021-07-17 01:01:00

    使用 TensorFlow with Keras,按照《Python 深度学习》(《Deep Learning with Python》)文本和序列处理那章,使用一维卷积Conv1D进行IMBD电影评论情感分类,下面是书里的代码:   结果,运行的时候,出现了训练误差和精度、验证误差和精度都保持不变的情况:             我惊呆了!训练误差

  • 第二章 模型评估与选择2021-07-17 00:02:05

    2.1 经验误差与过拟合 1.误差 2. m个样本样本,a个分类错误 错误率:分类错误的样本数占样本总数的比例 E = a / m

  • 模型的评估与选择2021-07-16 14:02:06

    误差   误差( Error) :是模型的预测输出值与其真实值之间的差异。 训练( Training) : 通过已知的样本数据进行学习,从而得到模型的过程。 训练误差( Training Error) : 模型作用于训练集时的误差。 泛化( Generalize) :由具体的、个别的扩大为一般的,即从特殊到一般,称为泛化。对

  • 组合导航(八):INS/GPS组合导航2021-07-16 12:03:41

    INS/GPS组合导航 对比INS与GPS导航方法,二者都有其各自的优缺点。 惯性导航系统INS是一种全自主的导航系统,可以输出超过200Hz的高频信号,并且具有较高的短期测量精度。除了提供位置与速度之外还可以提供姿态信息。但由于算法内部存在积分,惯性传感器的误差会不断累积,使得长期导航误

  • 2021-07-132021-07-13 21:04:49

    错误率:分类错误的样本数占样本总数的比例称为"错误率"。 精度:精度=1-错误率 错误率:学习器中在训练集上的误差称之为"训练误差"或"经验误差"。 泛化误差:在新样本的误差。过拟合:训练样本学习的太好了,泛化能力下降。欠拟合:训练样本学习的较差,泛化能力也不高。导致过拟合的原因最

  • 【目标跟踪】基于matlab Kalman目标跟踪【含Matlab源码 1119期】2021-07-09 11:34:20

    一、简介 运动物体跟踪实际上就是对运动物体位置的测量和估计,和称小兔兔体重一样,我们也有两个渠道可以知道运动物体的位置,一个是我们观察到的,目标A在的某一帧图像的某个坐标点,另一个是我们根据前面几帧里目标的运动情况估计出来的,这个估计是假定目标运动是光滑的(当然也可以有其他

  • 【目标跟踪】基于matlab Kalman目标跟踪【含Matlab源码 1119期】2021-07-09 11:32:12

    一、简介 运动物体跟踪实际上就是对运动物体位置的测量和估计,和称小兔兔体重一样,我们也有两个渠道可以知道运动物体的位置,一个是我们观察到的,目标A在的某一帧图像的某个坐标点,另一个是我们根据前面几帧里目标的运动情况估计出来的,这个估计是假定目标运动是光滑的(当然也可以有

  • R语言数学建模(1):Regression analysis2021-07-09 11:05:25

     某建模萌新半年来学习建模的一些记录加总结 一,linear regression  对于这样一个有明显线性趋势的数据,我们要找到一条直线使其具备预测该数据走向的能力,采用最小二乘准则(least square estimates)即,拟合出的直线符合残差平方和最小的准则。将上述翻译成数学语言即可得到如下

  • PID调节:看大神是如何整定参数2021-07-08 18:05:14

          常用口诀     参数整定找最佳,从小到大顺序查 先是比例后积分,最后再把微分加 曲线振荡很频繁,比例度盘要放大 曲线漂浮绕大湾,比例度盘往小扳 曲线偏离回复慢,积分时间往下降 曲线波动周期长,积分时间再加长 曲线振荡频率快,先把微分降下来 动差大来波动慢。微分时间应加长

  • 单变量线性回归的三种评价方法2021-07-06 21:57:53

    一、平均绝对误差(MAE) 即:Mean Absolute Error,是指每个样本的真实值与与预测值的差的绝对值,再求和,再求平均,其公式如下: 二、均方误差(MSE) 即:Mean Square Error,是指每个样本的真实值与预测值的差的平方,再求和,再求平均,其公式如下: 三、均方根误差(RMSE) 即:Root Mean Square Error

  • 反向传播——通俗易懂2021-07-05 21:34:27

    假设,你有这样一个网络层:   第一层是输入层,包含两个神经元i1,i2,和截距项b1;第二层是隐含层,包含两个神经元h1,h2和截距项b2,第三层是输出o1,o2,每条线上标的wi是层与层之间连接的权重,激活函数我们默认为sigmoid函数。   现在对他们赋上初值,如下图:   其中,输入数据  i1=0.05,i2=

  • 【预测模型】基于matlab BP神经网络停车位预测【含Matlab源码 765期】2021-07-05 10:03:48

    一、简介 1 概述 BP(Back Propagation)神经网络是1986年由Rumelhart和McCelland为首的科研小组提出,参见他们发表在Nature上的论文 Learning representations by back-propagating errors 。 BP神经网络是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之

  • 线性回归2021-07-04 13:32:28

    可以从银行贷款问题来理解线性回归,x1,x2…xn可以理解为银行是否给我们贷款的参考因素(例如:年龄,工资,工作单位),而我们要求的y就是最终的预测结果,也就是银行给我们贷款的金额。 线性回归的目标就是用我们提前准备好的数据集,用这些数据来画点,将这些点拟合成一条线或是一个高维的面,最终得

  • 【RT-Thread作品秀】基于嵌入式操作系统的机器人驱动控制模型算法设计与实现2021-06-29 15:53:03

      概述 机器人运动系统式一套高复杂性、高耦合性、驱动力小于机体物理自由度的非线性系统,为了实现机器人在空间中稳定的运动姿态控制,本设计把机器人运动系统在空间中的运动形式等效成了旋转倒立摆模型,基于该模型的运动特点,分别设计了速度闭环控制算法和角度闭环控制算法,通过双闭环

  • MATLAB神经网络系列(一):BP神经网络的数据分类2021-06-28 11:32:15

    BP神经网络概述 BP神经网络是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的 输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降法,通过反向传播来不断 调整网络的权值和阈

  • 支持向量机SVM模型中C和gamma参数分别是什么?对模型有什么影响?2021-06-28 09:05:40

    支持向量机SVM模型中C和gamma参数分别是什么?对模型有什么影响? SVM模型有两个非常重要的参数C与gamma。 C的本质是正则化系数。 C值是惩罚系数或者叫惩罚因子,表征的是模型对于误差的容忍度。 C值越高,表征模型越不能接受出现误差,但是容易过拟合。 C值越小,模型对于误差比较宽容

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有