ICode9

精准搜索请尝试: 精确搜索
  • 数据挖掘(六)——模型优化与评估方法2021-05-29 14:57:39

      目录 文章目录 1、基本术语和概念 2、最优化模型 2.1 最优化模型的概述 2.2凸优化 2.3损失函数 ​2.4最优化模型的分类(按约束条件)  3、模型评估与选择 4、正则化     提示:以下是本篇文章正文内容,下面案例可供参考 1、基本术语和概念 (2条消息) 模型评估与优化1--基本

  • R语言最优化问题中的共轭函数2021-05-12 13:53:51

    原文链接:http://tecdat.cn/?p=18993   在回归模型研究中,我们将讨论优化,而经典工具就是所谓的共轭。给定函数f:Rp→R,其共轭值为函数f ⋆:Rp→R使得 可视化考虑一个简单的抛物线函数(在维度1中)f(x)= x ^ 2 / 2,然后f ⋆(2)是线x↦2x与函数f(x)之间的最大距离。 f = function(x) x^2/2 fstar

  • 特征集的贝叶斯误差及贝叶斯最优化分类器2021-04-26 14:02:50

    特征集的贝叶斯误差及贝叶斯最优化分类器 贝叶斯误差,在特征分布确定(一般没法知道)的情况下,描述了模型所能达到的最好分类结果;在模型拟合能力完美的情况下,衡量了当前采样特征集对真实特征分布的采样误差(不确定是不是可以用这个词)。 贝叶斯误差 Wiki定义:贝叶斯误差(bayes error r

  • 机器学习数学基础——最优化理论2021-04-22 23:59:41

    以下文章摘录自 《机器学习观止——核心原理与实践》 京东: https://item.jd.com/13166960.html 当当:http://product.dangdang.com/29218274.html   最优化理论 概述 最优化理论是数学的一个分支,它主要研究的是在满足某些条件限制下,如何达到最优目标的一系列方法。最优化理论的

  • 最优化学习笔记1——关于拟牛顿法推导2021-04-15 23:03:27

    从2020年3月份到现在,一年的时间里断断续续自学最优化,结合豆瓣读书、知乎等网站上的推荐,翻阅了以下书和课程: Stephen Boyd和Lieven Vandenberghe的《Convex Optimization》,这本书被公认为学习凸优化的必读经典著作,其中大量的篇幅讲应用,讲理论和算法的篇幅稍少一些。在B网站上

  • 非线性最优化之二分法Python实现2021-03-27 22:01:24

    非线性最优化之二分法 算法原理二分法代码展示运行结果展示 算法原理 略 二分法 网上有很多对二分法的介绍,这里不再多做赘述。 本文为《非线性最优化》中二分法的Python实现。但是目前此代码仅适用于单谷凹函数,可求函数所对应导数的根、根所在区间、x为何值时函数取最值

  • 从 smooth&最优化 角度理解softmax2021-03-03 10:34:59

    一般理解softmax都是从“熵”这个角度,先从二分类的交叉熵入手,再延申到多分类的softmax损失函数。 今天则从另一个角度:smooth & 最优化 的角度入手来理解softmax损失函数。 转载知乎文章如下: 从最优化的角度看待Softmax损失函数 - 王峰的文章 - 知乎 https://zhuanlan.zhihu.com/p/

  • 最优化理论——元启发式优化算法综述之一2021-02-23 16:30:13

    元启发式优化算法是一种解决全局优化问题常用的方法,它主要是通过模拟自然和人类智慧来实现最优解的求解。 相比于传统的优化方法,如模拟退回,梯度下降等,1960年。元启发式优化方法首次被提出,是一种灵活且无视梯度变化的方法。 元启发式的优化算法主要可被分为四类: (1)基于进化的算

  • 机器学习十讲--第七讲-最优化2021-02-10 22:34:05

                                                                               

  • 21春线上DP图论精讲 Day1/Day2/Day32021-02-09 20:33:24

    目录引入两道例题入门——数字三角形动态规划的基本思想——最优化关于时间复杂度另一道例题 引入 两道例题 先通过两道例题引入: Problem 1 给出一个 \(2\times n\) 的网格,你现在需要用 \(n\) 个 \(1\times 2\) 的多米诺骨牌占满整个棋盘。 多米诺骨牌可以横着或者竖着放。 求有

  • 最优化-最优条件(数学基础)2021-02-07 10:04:58

    1. 凸集 Def:Set X X X\ in R n R^n

  • 机器学习七讲——最优化2021-02-05 22:04:38

    一、学习资料 北京博雅数据酷客平台大讲堂:http://cookdata.cn/auditorium/course_room/10018/ 案例分析:http://cookdata.cn/note/view_static_note/24b53e7838cde188f1dfa6b62824edbb/ 二、学习内容 1、机器学习模型的优化目标 2、随机梯度下降(SGD) 3、动量法(momentum) 4、二阶

  • 深入浅出数据分析 - 最优化2021-01-31 11:01:43

    3 最优化 - 寻找最大值  本篇介绍了通过一个案例讲解如何通过Excel的Solver求解器解决利润最大化的问题。主要知识点为:最优化方法。 3.1 案例 一家生产橡皮鸭和橡皮鱼玩具的浴盆玩具生产企业,如何优化橡皮鸭和橡皮鱼的产量实现利润最大化。 3.2 最优化问题 当你希望尽量多获得(减

  • Python利用最优化算法求解投资内部收益率IRR【一】2021-01-19 21:03:28

    一、 内部收益率和净现值 内部收益率(Internal Rate of Return, IRR)其实要和净现值(Net Present Value, NPV)结合起来讲。净现值指的是某个投资项目给公司或企业带来的价值增值,可以简单地用以下公式去计算。 1.净现值: NPV = CF0 + CF1/(1+r1) + ... + CFt/(1+rt)^t 其中,CF0是初始投资

  • 哪些问题可用动态规划思想来解决2021-01-09 00:01:38

    动态规划(Dynamic Programming,DP)是运筹学的一个分支,是求解决策过程最优化的过程。20世纪50年代初,美国数学家贝尔曼(R.Bellman)等人在研究多阶段决策过程的优化问题时,提出了著名的最优化原理,从而创立了动态规划。动态规划的应用极其广泛,包括工程技术、经济、工业生产、军事以及

  • 最优化——对偶问题的性质(弱对偶性,强对偶性),对偶问题形式的书写(对偶规则)2020-12-10 16:33:37

    文章目录 对偶性质弱对偶性强对偶性对偶问题解之间的关系线性规划与其对偶规则的关系互补松弛定理 对偶性质 弱对偶性 原对偶问题任何可行解的目标值都是另一问题最优目标值的界。(推论:原对 偶问题目标值相等的一对可行解是各自的最优解) 强对偶性 原对偶问题只要有一个有

  • 深度学习-----超参数的最优化2020-11-28 17:29:45

    步骤: (0) 设定超参数的范围 (1) 从设定的超参数范围中随机采样 (2) 使用步骤1中采样到的超参数的值进行学习,通过验证数据评估识别精度(但是要将epoch设置得很小) (3) 重复步骤1和步骤2(100次等),根据它们的识别精度的结果,缩小超参数的范围。 反复进行上述操作,不断缩小超参数的范围

  • 最优化2020-11-24 15:03:23

           

  • 最优化算法3【拟牛顿法1】2020-08-20 19:01:15

    牛顿法存在的问题 计算量大,每次都需要计算HESSE矩阵,对于自变量维数较高的优化函数,计算量是相当大的; HESSE矩阵可能存在不正定的问题,此时求得的迭代方向可能不是下降方向; 为了解决上述问题,需要求HESSE矩阵近似矩阵\(B\) 算法分析 将函数在\(x_{k+1}\)处二阶展开: \[f(x)=f(x_{k+1}

  • 【最优化】几何概念概述2020-08-02 15:58:44

    根据最优化导论的相关概念做一个基本的概述和理解;   线段: 以往直线都是针对于二维和三位情况下进行讨论,从来没进行过高维下的线段讨论; 对于直线来说,直接定义就是方向向量+一点即可; 但是对于线段来说采用方程的常规设法,来张成一个解区间,进行表示线段; 假设对于n维空间下两点,如果采

  • 最优化算法【最小二乘法和梯度下降法】2020-07-29 22:04:15

    一、最小二乘法 对于给定的数据集\(D = {(x_1,y_1),(x_2,y_2), ...,(x_m,y_m)}\),其中\(x_i=(x_{i1};x_{i2}; ...;x_{id})\)。 对上述数据进行拟合: \[f(x_i)= \hat \omega^T \hat{x_i} \]其中:\(\hat\omega = (\omega_1;\omega_2; ..., \omega_d;b)\) , \(\hat x_i = (x_{i1};x_{i2}

  • 最优化 KKT条件2020-06-03 20:09:09

    对于约束优化问题: 拉格朗日公式: 其KKT条件为: 求解 x、α、β   其中β*g(x)为互补松弛条件   KKT条件是使一组解成为最优解的必要条件,当原问题是凸问题的时候,KKT条件也是充分条件。

  • 非线性约束最优化2020-05-16 20:03:31

    CanChen ggchen@mail.ustc.edu.cn 讲完了二次线性规划,这节课主要是讲了一般的非线性约束最优化怎么解。   等式约束-Lagrange-Newton 先列Lagrange方程: 然后用牛顿法求方程的根(这个迭代又被称为Newton-Raphson迭代):   Sequential Quadratic Programming 这个问题是最泛化的

  • 《自动机器学习(AutoML)最新综述》2020-05-16 12:51:20

        这是一篇来自第四范式(4Paradigm)公司的关于 AutoML 的综述文章。第四范式是目前国内关于 AutoML 研究较早较深入的公司之一。AutoML 全称是 Automated Machine Learning,是 2014 年以来,机器学习和深度学习领域最炙手可热的领域之一。 本篇综述文章系统地对 AutoML 领域给

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有