ICode9

精准搜索请尝试: 精确搜索
  • 模型误差和过拟合2021-11-17 01:03:19

    训练一个模型的目的,是希望这个模型在预测中有好的表现,即预测值和真实值之间的差异尽可能小,这种差异称为误差(Error) 误差分为两种,一是在训练数据上误差,称为训练误差,也叫经验误差,二是在新样本上的误差,称为泛化误差。 我们训练一个模型想获得的理想结果是训练误差和泛化误差都比较小。

  • 模型评估和选择2021-11-17 01:01:53

    可用模型很多:不同的算法产生不同的模型,相同的算法用不同的参数也产生不同的模型。 怎么选?使用训练误差最小的那个模型?显然不行,过拟合问题。 模型选择涉及两个问题:一是评估方案的实验设计问题,这方面主要是如何从已有数据中分离出测试数据集,二是评估度量问题,即各种指标,诸如RMSE,精度

  • 吃瓜教程1、2章2021-11-16 23:32:30

    第一章 绪论(概念巨多) 1.1 引言 学习算法:利用经验来改善系统自身性能,在计算机上从数据中产生“模型”的算法。 “模型”:泛指从数据中学得的结果。 1.2 基本术语 数据集:一组记录的集合。 示例/样本:每条记录关于一个事件或对象的描述 属性/特征:反映事件或对象在某方面的表现 或 性

  • 【基础理论】专题1 泛化到底是什么?2021-11-12 22:32:27

    文章目录 1 欠拟合、过拟合2 期望误差、经验误差、结构误差3 什么是“泛化性(Generalization)”4 奥卡姆剃刀原理5 一些定义5.1 假设空间5.2 学习算法5.3 一致性(Consistency)5.4 经验风险最小化(Empirical Risk Minimization(ERM)) 6 VC-维(VC-Dimension)6.1什么是

  • Learning to Combat Compounding-Error in Model-Based Reinforcement Learning2021-11-10 10:04:03

    发表时间:2019(NeurIPS 2019 Deep Reinforcement Learning Workshop) 文章要点:这篇文章想说model based方法里面通常model都是imperfect的,就是这个model一般只在局部是准确的,放到全局上看误差会越来越大,所以如果用这个model去planning很多个step的话就会有问题。作者提出了一种基于m

  • 机械工程控制基础概念复习2021-11-07 12:33:02

    控制论两个核心:信息和反馈 控制论与机械工程控制关系:机械工程控制论是研究控制论在机械工程中应用的一门技术学科。 控制论发展阶段及特点:第一阶段的自动控制理论,即经典伺服机构理论,成熟于40~50年代。针对工程技术运用控制论的基本原理建立起来的在复数域(频率域)内以传递函数(频率

  • 过拟合与梯度消失2021-11-04 14:31:07

    过拟合 现象: 在训练集上表现效果非常好,但是在验证集上效果下降。在训练集上的误差越来越小并趋于稳定,在验证集上的误差先减小后增大。 原因: 精确学习到了训练集上的特征,但是实际数据与训练集数据存在差距。 解决方法: 1.添加L1/L2正则化:引入模型的复杂度,模型越复杂,则正则化项越大,误

  • 卫星导航系统-第14讲-差分定位方法-12021-11-02 14:32:13

    整周模糊度的实时求解        解算模型的进一步考虑 在短基线的前提下,由于用户与之间空间信号误差的强相关性,经过双差之后强相关误差将充分被消除。因此一般我们总是基于相位差是相互独立的等精度观测值这样的假设来开展工作。        在中长基线前提下,用户与基站之间

  • 《自然语言处理:基于预训练模型的方法》第四章 自然语言处理中的神经网络基础--神经网络模型的训练2021-10-31 18:04:33

    以上章节介绍了自然语言处理中几种常用的神经网络(深度学习)模型,其中每种模型内部都包含大量的参数,如何恰当地设置这些参数是决定模型准确率的关键,而寻找一组优化参数的过程又叫作模型训练或学习。 1.损失函数 为了评估一组参数的好坏,需要有一个准则,在机器学习中,又被称为损失函数(L

  • Fill in blank -Thermal experiment theory and technology2018-01-062021-10-29 10:05:31

    热工实验原理与技术精选填空题 一、填空(15分,每空一分) 1.在一组等精度数据中,常含有(随机)误差,(系统)误差和(粗大)误差。误差的性质不同,对误差的处理方法也不同。对于系统误差,可以采取消除误差源或减弱误差源的影响,以及对测定值进行(修正)等技术措施来处理;对于随机误差的影响,应该用数据统

  • 浮点数舍入误差2021-10-27 20:33:07

    关于double和float的精度问题   在进行数值运算时,如果有float或者double类型的浮点数参与计算时,偶尔会出现结果不准确的情况。   浮点数在计算机中是无法进行准确表示的,比如0.1在计算机中只是一个近似值,因此对浮点数运算结果具有不可预见性。如果两个浮点操作数的误差就能相互

  • 分类与回归的区别2021-10-26 16:35:11

    分类与回归区别是什么? - 陶韬的回答 - 知乎 https://www.zhihu.com/question/21329754/answer/204957456 作者:陶韬链接:https://www.zhihu.com/question/21329754/answer/204957456来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 为什么那么多回答

  • 第三章 卡尔曼滤波3.2 算法和模型-1定义2021-10-25 15:01:47

    3.2.1 定义 离散时间卡尔曼滤波中所有误差的时变特性可归为以下三种假设中的一种:系统误差、白噪声和高斯-马尔可夫过程。系统误差(systematic errors)被假设为常值,是完全时间相关的,虽然当得到关于这些量的更多信息时,其卡尔曼滤波估计的值也会发生变化。 白噪声序列(white noise seque

  • 第五部分:神经网络2021-10-23 23:07:20

    chapter1 神经网络的表述 1.模型表示 基础神经元: X0=1 偏置、参数又可称为权重,激活函数sigmoid: 2.神经网络: 关于层: 第一层为输入层,最后一 层为输出层,中间一层为隐藏层。我们为每一层都有一个偏差单位。 关于节点: ——代表第

  • 神经网络与深度学习-邱锡鹏-学习笔记16-多项式回归2021-10-22 12:34:48

    神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili    注解: 1.非线性的问题加入用线性方程去拟合,那会出现欠拟合的情况。 2.解决办法就是用Ф(X)代替X,如下图:             注解: 1.依然可以把多项式回归模型写成线性的形式,此时可以利用线性回归的最小二乘

  • K-近邻算法(一)2021-10-21 22:04:30

    文章目录 一、简介1、概念 二、k近邻算法api的初步使用1、目标:2、Scikit-learn的介绍3、 K-近邻算法API4、案例 三、距离度量1、距离公式的基本性质2、常见的距离公式 四、K值选择说明1、举例说明2、K值选择问题3、近似误差与估计误差 五、kd树1、kd树的定义2、树的建立3、

  • 回归指标 - MSE均方误差、RMSE均方根误差、MAE平均绝对误差、R2判别系数2021-10-20 12:03:26

    1.MSE - 均方误差 \[MSE = \displaystyle\frac{1}{m}\sum_{i=1}^{m}(y_i - \hat{y_i})^2 \]MSE是用 真实值 - 预测值 然后平方后求和平均,常用线性回归的损失函数。 在线性回归时我们希望损失函数最小,从而判断测试集的损失值有多少。 # 数学公式计算 MSE = np.sum((y_pred-y_test)*

  • 2021-10-142021-10-18 23:34:43

    - 基本术语 示例(instance)/样本(sample):一个事件或对象,在空间中又可称为特征向量(feature vector) 属性(attribute)/特征(feature):反映事件或对象在某方面的表现或性质的事项 属性值(attribute value):属性上的取值 属性空间(attribute space)/样本空间(sample space)/输入空间:属性张成的空

  • (西瓜书)《机器学习-周志华》-学习笔记:(2-0)第二章 模型评估与选择2021-10-18 23:03:03

    (西瓜书)《机器学习-周志华》-学习笔记:(2-0)第二章 模型评估与选择 文章目录 (西瓜书)《机器学习-周志华》-学习笔记:(2-0)第二章 模型评估与选择概括2.1经验误差与过拟合一些名词术语过拟合与欠拟合 2.2评估方法以测试误差作为泛化误差的近似2.2.1 留出法2.2.2 交叉验证法留一法 :

  • 深度估计-02-Feature-metric Loss for Self-supervised Learning of Depth and Egomotion2021-10-18 20:59:20

    ECCV2020 提出问题         1、目前的自监督深度估计大多采用光度误差作为约束方式,当存在低纹理区域时,由于在低纹理区域,即使深度图和位姿矩阵估计得不好,算出来的光度误差也会小,因此,光度误差在此时容易陷入局部最小。 Contribtion         1、提出Feature-metric

  • Improving Monocular Depth Estimation by Leveraging Structural Awareness and Complementary Datasets2021-10-18 18:33:27

    提出问题:目前单目深度估计中的方法存在的问题是缺乏结构信息的利用,这样就会导致不准确的空间信息,表面不连续,模糊边界问题。 提出解决方案: 为了充分利用视觉特征的空间关系,提出了一个空间结构注意力模块,这个模块让不同特征层注意不同的结构信息,比如有些层注意全局结构,有些层

  • 深度学习1:Regression-CaseStudy(预测宝可梦进化后CP值)2021-10-17 17:35:17

    Step1:设立model   例如Y=b+w*Xcp     A set of  function   Step2:Goodness of Function   定义loss function(损失函数L)来评估function的好坏   通过training data评估后挑选出最好的function(f*),用testing data来评估误差 ,注意可能会出现overfitting(过度拟合)的情况。  

  • 网络RTK——区域改正参数法(FKP)2021-10-17 16:03:28

    区域改正参数法FKP的处理流程如下: 1)数据处理中心接收到基准站网内所有GNSS观测信息后,计算估计电离层和几何信号的误差,并把其描述为东西和南北两个方向的改正参数; 2)以广播的模式将两个方向的区域改正参数发播给网内用户; 3)用户根据接收到的相关误差改正参数和自身近似坐标采用内插

  • 过拟合问题,L1L2正则化2021-10-17 11:33:31

    正则化:凡是可以减少泛化误差而不是减少训练误差的方法都是正则化方法。 在神经网络中参有两类,w叫权重,b叫偏置,w(权重)其实是模型里面未知数的系数,其取值情况决定了模型曲线什么样子,b的取值只会改变模型平移情况,L1L2正则化只针对w进行正则化处理。 L1L2是指L1L2范数,范数理解为把”空间

  • 西瓜书+南瓜书第1、2章学习总结-Task01-2021102021-10-12 23:34:09

    第一章 绪论 1.2 基本术语     一般的令表示包含m个示例的数据集,每个示例由d个属性描述,则每个示例是d维样本空间中的一个向量,其中是在第j个属性上的取值,d称为样本的“维数”。     从数据中学得模型的过程称为“学习”或“训练”。若想要预测的数据是离散值,此类学习任务称为

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有