ICode9

精准搜索请尝试: 精确搜索
  • 梯度下降2021-11-26 16:04:14

    1.梯度下降(单,多元) 2.特征缩放 3.选择合适的α(学习率) 4.特征和多项式   梯度下降是很常用的算法,不仅用于线性回归,还广泛应用于机器学习的众多领域,可以最小化其他函数(任意函数)     不同的起始点有可能得到不同的局部最优解           下图Θ逐渐减小,直到最佳状态    

  • OpenCV.Scharr梯度2021-11-25 20:31:26

    Scharr梯度 Scharr梯度算子分为X方向Y与方向,可以分别计算其各自方向的梯度图像,然后将其进行平均权重相加即可。其声明如下: Scharr(src, dst, ddepth, dx, dy); 各参数解释如下: src 表示此操作的源(输入图像)的Mat对象。 dst 表示此操作的目标(输出图像)的Mat对象。 ddepth

  • DeepLearning神经网络学习笔记(一)2021-11-23 20:34:46

    第一部分 机械学习基础 1.基本概念1.1定义1.2流程 2.三个要素2.1模型2.2学习准则2.2.1损失函数2.2.2 风险最小化准则 2.3优化算法2.3.1梯度下降法2.3.2随机梯度下降法2.3.3小批量梯度下降法 1.基本概念 首先需要明确的一个概念,深度学习是一个机器学习问题。 我们要想

  • 记录篇:【百面机器学习】第一章.特征工程---特征归一化2021-11-22 21:00:47

    为什么需要对数值类型的特征做归一化?   为了消除数据特征之间的量纲影响,我们需要对特征进行归一化的处理,使得不同指标之间具有可比性。    例如:分析一个人的身高和体重对健康的影响,如果使用米(m)和千克(kg)作为单位,那么身高特征会在1.6~1.8m的数值范围内,体重特征会在50~100kg的范围

  • 《机器学习实战》学习笔记(三):Logistic回归2021-11-21 17:58:27

    目录 一、Logistic回归函数二、确定最佳回归系数——极大似然估计+最优化2.1 最大似然函数2.2 取似然函数的对数 三、梯度上升算法3.1 算法原理3.1 源码实现 四、算法实例——从疝气病症状预测病马的死亡率4.1 实战背景4.2 准备数据4.3 构建Logistic回归分类器 五、拓展—

  • pytorch分布式训练方法总结2021-11-20 23:07:11

    1 DP 1.1 原理 DP 基于单机多卡,所有设备都负责计算和训练网络,除此之外, device[0] (并非 GPU 真实标号而是输入参数 device_ids 首位) 还要负责整合梯度,更新参数。图 1 即为 GPU 0 作为 device[0] 的例子。从图中我们可以看出,有三个主要过程: 过程一(图中红色部分):各卡分别计算损

  • p5 Error的来源2021-11-19 23:04:41

    p5 Error的来源 从上节课测试集数据来看,Average\ ErrorAverage Error 随着模型复杂增加呈指数上升趋势。更复杂的模型并不能给测试集带来更好的效果,而这些 ErrorError 的主要有两个来源,分别是 biasbias 和 variancevariance 。 然而 biasbias 和 variancevariance 是什么?可

  • 梯度消失与梯度爆炸2021-11-18 22:00:09

    在训练深度网络时,导数或坡度有时候会非常大(梯度爆炸),或导数非常小(梯度消失),这加大了训练难度。  对于一个很深的神经网络,预测值y=wL*L(L-1)*.....*w1*x   所以,w1*x=z1,a1=sigmoid(z1)   z2=w2*a2 上图省略sigmoid函数,  一个很深的神经网络,预测值就等于权重W的L次方, 当W矩

  • HOG特征提取原理and计算步骤,方向梯度直方图2021-11-18 17:58:41

    HOG简介         方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。Hog特征结合SVM分类器已经被广泛应用于图像识别中,尤其在行人检测中获

  • pytorch hook 钩子2021-11-17 15:03:21

    简介 hook是钩子,主要作用是不修改主代码,能通过挂载钩子实现额外功能。 pytorch中,主体就是forward和backward,而额外的功能就是对模型的变量进行操作,如“提取”特征图,“提取”非叶子张量的梯度,修改张量梯度等等。hook功能即不必改变网络输入输出的结构,就能方便地获取、改变网络中间

  • 基于matlab图像锐化之梯度函数的五种方法2021-11-15 16:03:18

      目录 一、将图片转为灰色函数 二、锐化代码  实现代码如下: 一、将图片转为灰色函数 function[A]=myreb2gray(a) n=size(a,3); if n==1 A=a; disp('该图像是灰度图') else A=rgb2gray(a); %将图像灰度化,如果没有此步,出来的将是纯白 end end 二、锐化代码 clear

  • 个人笔记Resnet残差网络2021-11-15 13:34:36

    Resnet残差网络:残差网络本质一种XGBOOST集成算法思想,让残差模块拟合网络残差,以此获得梯度增益效果,降低目标函数的值。《让损失函数沿着梯度方向的下降。这个就是gbdt 的 gb的核心了。 利用损失函数的负梯度在当前模型的值作为回归问题提升树算法中的残差的近似值去拟合一个回

  • 梯度流是个什么玩意儿2021-11-15 11:03:13

    梯度流是个什么玩意儿 举个最最最最简单的例子。 考虑一个经典的极小化问题: min ⁡ x

  • 分布式学习的一些待整理的博客2021-11-15 09:06:59

    批量梯度下降法(BGD)、随机梯度下降法(SGD)和小批量梯度下降法(MBGD) 批量梯度下降法(BGD)、随机梯度下降法(SGD)和小批量梯度下降法(MBGD)_Andyato的博客-CSDN博客_批量梯度下降https://blog.csdn.net/yato0514/article/details/82261821 特别好的一个梯度下降反向传播的博客 “反向传播算

  • Python实现手绘图像效果转换2021-11-14 21:59:02

    作业三:手绘图像效果 编写手绘图像效果程序,选择一张新的图片,将其转换成手绘图像效果 from PIL import Image import numpy as np a = np.array(Image.open(r"C:\Users\xia\Pictures\Cyberpunk 2077\1.png").convert('L')) depth = 10 # 预设深度值是10 grad = np.gradient(a

  • tensorflow学习010——优化函数、学习速率、反向传播算法2021-11-14 20:04:58

    2.9 优化函数、学习速率、反向传播算法 梯度:表明损失函数相对参数的变化率 学习速率:对梯度进行缩放的参数,是一种超参数(超参数写代码时需要自己设定),在具体实践中,可通过查看损失函数值随时间的变化曲线,来判断学习速率的选取是否合适 合适的学习速率,损失函数随时间下降,直到一个底部;不

  • 梯度下降算法学习2021-11-14 09:34:46

    梯度下降求f(x,y)=x^2 + y^2 先画个图 import numpy as np from matplotlib import interactive, pyplot as plt from mpl_toolkits.mplot3d import Axes3D from matplotlib import animation as amat "function:f()x,y = x^2 +y^2" def fangcheng(x,y): return np.power

  • 梯度下降算法python实现2021-11-14 09:05:48

    def fun(x, y, w, b): l = 0 for i in range(4): l += (y[i] - (b + w * x[i]))**2 # l = sum(y - (b + w * x)**2 for x, y in zip(x, y)) / 8 return l / 8 # 梯度下降法 def gradient_descent(): times = 100 # 迭代次数 alpha = 0.001

  • 小批量随机梯度下降法2021-11-13 16:02:40

    文章目录 写在前面小批量随机梯度公式代码参考文献 写在前面 小批量随机梯度下降法(Mini-batch Stochastic Gradient Decent)是对速度和稳定性进行妥协后的产物 小批量随机梯度公式 我们可以看出当b=1时,小批量随机下降法就等价与SGD;当b=N时,小批量就等价于全批量。所以

  • 梯度反转层2021-11-13 13:03:22

    源码地址:https://github.com/fungtion/DANN_py3 from torch.autograd import Function class ReverseLayerF(Function): @staticmethod def forward(ctx, x, alpha): ctx.alpha = alpha return x.view_as(x) @staticmethod def backward(

  • 强化学习A2C2021-11-13 12:34:43

    策略函数梯度:       状态价值函数梯度:    

  • 随机梯度下降法2021-11-12 10:04:52

    随机梯度下降法的思想 每次更新权值不再利用整个数据集,而是随机选择其中1个样本。随机梯度下降法使用的是近似梯度,走的缓慢,相比于梯度下降法,不是那么容易陷入到局部最优中 python实现 import numpy as np import random x1 = np.array([2104, 1600, 2400, 1416, 3000]) x2 =

  • 如何使用MindSpore自定义优化器2021-11-11 14:34:27

    如何使用MindSpore自定义优化器 引言动机层归一化的缺陷自适应梯度裁剪如何用MindSpore自定义优化器并且实现AGC_SGDmindspore.nn.optim.Momentum使用MindSpore实现AGC MindSpore社区贡献活动 引言     神经网络的参数众多,我们需要选择合适的算法来进行参数的更新和

  • 【大学物理·静止电荷的电场】电场强度与电势的微分关系2021-11-10 17:03:44

    就是多一种方法去求电场强度 把沿法线方向的这个电势变化率定义为P点处的电势梯度矢量,通常记作grad V(V的梯度) 即电场中某点的电势梯度矢量,在方向上匀电势在该点处空间变化率为最大的 办向相同,在量值上等于该方向上的电势空间变化率 上式说明静电场屮各点的电场强度等于该点

  • 分布式机器学习2021-11-10 13:00:49

    https://zhuanlan.zhihu.com/p/391187949 分布式机器学习也称为分布式学习 ,是指利用多个计算节点(也称为工作者,Worker)进行机器学习或者深度学习的算法和系统,旨在提高性能、保护隐私,并可扩展至更大规模的训练数据和更大的模型。如图所示,一个由三个工作者(即计算节点)和一个参数服务器

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有