ICode9

精准搜索请尝试: 精确搜索
  • PyTorch中在反向传播前要手动将梯度清零2022-01-13 22:34:11

    目的:手动清零可以让使用者自由选择梯度清零的时机,具有更高的灵活性。例如选择训练每N个batch后再进行梯度更新和清零,这相当于将原来的batch_size扩大为N×batch_size.因为原先是每个batch_size训练完后直接更新,而现在变为N个batch_size训练完才更新,相当于将N个batch_size合为

  • 深度学习相关面试知识点2022-01-12 10:01:35

    深度学习 该内容由个人整理和归纳,如有不同见解,还望指教~ 为什么要通过梯度下降求解参数? 梯度的方向是函数增长速度最快的方向,那么梯度的反方向就是函数下降最快的方向,通过往函数下降最快的方向走,可以走到函数的极小/最小值点。 Embedding 为什么需要 Embedding? 因为有些类别特

  • 计算机视觉面试宝典--深度学习机器学习基础篇(三)2022-01-12 09:31:00

    计算机视觉面试宝典–深度学习机器学习基础篇(三) 本篇主要包含数据类问题、正则化、激活函数与梯度以及回归等相关面试经验。 数据类问题 1.样本不平衡的处理方法 ①欠采样 - 随机删除观测数量足够多的类,使得两个类别间的相对比例是显著的。虽然这种方法使用起来非常简单,但很

  • Error:function ‘LogSoftmaxBackward‘ returned nan values in its 0th output.2022-01-11 20:06:40

    Error:function ‘LogSoftmaxBackward’ returned nan values in its 0th output. 原因分析 产生这个问题的原因可能有几种: 1.数据中出现NAN——数据清洗 2.梯度出现NAN——梯度裁减 解决方案 模型参数出现NAN,其实也是由梯度导致的,因为初始化你不可能就NAN把,那就是更新过程

  • 简单易懂的线性回归模型训练2022-01-11 18:30:31

    本次代码学习参考深度学习框架PyTorch入门与实践(陈云) 模拟线性回归 代码部分理论部分关于本模型的前向计算和反向传播梯度下降法 代码部分 import torch as t %matplotlib inline from matplotlib import pyplot as plt from IPython import display #设置随机数种子,保

  • 优化算法入门(待更新和排版)2022-01-10 21:33:00

    文章目录 牛顿法最小二乘法拉格朗日乘数法梯度下降法 牛顿法 牛顿法又称Newton-Rapson method,主要有两个重要的应用:求解方程的根、优化 牛顿法求解方程的根:使用泰勒展开将方程代表的函数在某个解的猜想出进行多项式展开,取一阶或者二阶项,同时舍去高阶项后,求解函数的零点

  • 计算机视觉面试宝典--深度学习机器学习基础篇(一)2022-01-10 09:02:32

    CV总复习–深度学习机器学习基础篇(一) 优化算法 深度学习优化学习方法(一阶、二阶) 一阶方法:随机梯度下降(SGD)、动量(Momentum)、牛顿动量法(Nesterov动量)、AdaGrad(自适应梯度)、RMSProp(均方差传播)、Adam、Nadam。 二阶方法:牛顿法、拟牛顿法、共轭梯度法(CG)、BFGS、L-BFGS。 自适应优

  • AI系统——梯度累积算法2022-01-08 21:31:21

    明天博士论文要答辩了,只有一张12G二手卡,今晚通宵要搞定10个模型实验 挖槽,突然想出一个T9开天霹雳模型,加载不进去我那张12G的二手卡,感觉要错过今年上台Best Paper领奖   上面出现的问题主要是机器不够、内存不够用。在深度学习训练的时候,数据的batch size大小

  • 机器学习入门:线性回归2022-01-07 20:31:56

    一、回归算法 • 回归算法是一种 有监督 算法 • 回归算法是一种比较常用的机器学习算法,用于构建一个模型来做特征向量到标签的映射。在算法的学习过程中,试图寻找一个模型,最大程度拟合训练数据。 • 回归算法在使用时,接收一个n维度特征向量,输出一个 连续 的数据值 二、

  • Spectral Normalization 谱归一化-原理及实现2022-01-05 15:39:15

    // 一、谱范数及其计算方法 见我的这篇blog 谱范数求解方法-奇异值分解&幂迭代法 // 二、谱归一化提出背景 谱归一化由论文《Spectral Normalization For Generative Adversarial Networks》论文链接 提出。 原生 GAN 的目标函数等价于优化生成数据的分布和真实数据的分布之间的

  • pytorch 11 mae、mse、BCELoss、BCEWithLogitsLoss和CrossEntropyLoss等loss的使用2022-01-04 19:34:52

    在深度学习任务中,根据loss的设计可以简单的分为线性回归、逻辑回归和softmax回归。 一、线性回归loss 其中线性回归是指拟合一个线性函数,通常用mse、mae来评价模型的拟合效果,此外mse、mae还可以作为loss训练模型。需要格外注意的是loss值的大小毫无意义,只有梯度值才是决定模型学

  • 边境的悍匪—机器学习实战:第四章 训练模型2022-01-04 19:02:31

    第四章 训练模型 文章目录 第四章 训练模型前言一、思维导图二、主要内容1、线性回归2、梯度下降3、多项式回归4、学习曲线5、正则化线性模型6、逻辑回归 三、课后练习四、总结 前言 我们在之前的三章提到了很多的模型,训练了很多的模型,但是对于模型的训练我们依旧是一个

  • 梯度下降算法求解一般函数最小值2022-01-03 20:33:09

    梯度下降算法python实现 梯度下降算法 梯度下降算法(Gradient Descent Optimization)是一种神经网络模型训练最常用的优化算法。可以用于求出一般函数f(x)在取得最小值时,x的取值。 ##算法原理: 以负梯度的方向来决定每次迭代时x的变化方向,就能够使得每次迭代后,目标函数的值减小

  • 数值稳定性QA2022-01-03 17:03:36

    1.nan,inf是怎么产生的以及怎么解决呢?答:inf(infinite)通常来说是你的学习率lr (learning rate)调的太大造成大,或者在你权重初始时(此时还没更新)的值太大了,炸掉了导致;nan一般是除0了,本来你梯度已经很小了,然后你又除0;解决的方法有上节课介绍的:合理初始化你的权重,激活函数别选错,学习率别

  • Bert预训练2022-01-02 22:01:24

    Bert模型的目的: 预训练Transformer的encoder网络,从而大幅提高准确率 主要有两个任务: 1、预测被遮挡单词: 随机遮挡一个词或多个词,让encoder根据上下文来预测被遮挡的单词 2、预测下一个句子: 把两个句子放在一起,让encoder判断是否是原文中相邻的两个句子 预测被遮挡单词: 首先

  • MATLAB实现0.618黄金分割法,牛顿法,最速下降法,共轭梯度法(运筹学)2022-01-02 09:58:34

    0.618黄金分割法 a=0;b=4; f=@(x) x^2-4*x+5;%匿名函数 e=0.001;n=0; while((b-a)>=e) t1=a+0.382*(b-a); t2=a+0.618*(b-a); n=n+1; if(f(t1)<f(t2)) b=t2; else a=t1; end end X=(a+b)/2; fprintf('最优解:X=%f\n',X); fprint

  • 【MindSpore:跟着小Mi一起机器学习吧!】神经网络的学习(下)2021-12-30 21:36:58

    在上周小Mi给大家的介绍中,我们谈到了怎样使用反向传播算法计算代价函数的导数。今天,小Mi将继续带大家了解神经网络的实现过程,废话不多说,赶快跟小Mi一起学起来吧~ 4 实现注意:展开参数 首先,有一个细节的实现过程值得关注一下,就是如何把参数从矩阵展开成向量,以便我们在高级最优化步骤

  • 【MindSpore:跟着小Mi一起机器学习吧!】多变量线性回归(一)2021-12-30 21:04:18

    小Mi学习,向上积极!前两节小Mi带大家学习了单变量线性回归,还具体分析了自动求解最小代价函数参数的梯度下降法。这不有了单变量,是不是肯定有多变量?!今天小Mi跟大家一起讨论的就是一种更为有效,适合实际情况的形式-多变量线性回归~~ 1 多维特征 既然是多变量线性回归,那么肯定是存在多

  • 【MindSpore:跟着小Mi一起机器学习吧!】多变量线性回归(二)2021-12-30 21:02:12

    几天不见,甚是想念!小Mi系列的活动正在如火如荼地进行中,小Mi看到大伙儿的热情,动力更加十足,这不又迫不及待地更新来了! 在上期的多变量线性回归介绍中,我们学习了多维特征、多变量的梯度下降法以及在实现梯度下降过程中的特征缩放和如何选择学习率这两个技巧,今天小Mi在其基础上,继续带领

  • 深度学习——动态计算图与梯度下降入门2021-12-30 17:02:32

    Lesson 6.动态计算图与梯度下降入门   在《Lesson 5.基本优化思想与最小二乘法》的结尾,我们提到PyTorch中的AutoGrad(自动微分)模块,并简单尝试使用该模块中的autograd.grad进行函数的微分运算,我们发现,autograd.grad函数可以灵活进行函数某一点的导数或偏导数的运算,但微分计算其

  • 共轭梯度法(Python实现)2021-12-30 02:02:00

    共轭梯度法法(Python实现) 使用共轭梯度法,分别使用Armijo准则和Wolfe准则来求步长 求解方程 \(f(x_1,x_2)=(x_1^2-2)^4+(x_1-2x_2)^2\)的极小值 import numpy as np # import tensorflow as tf def gfun(x): # 梯度 # x = tf.Variable(x, dtype=tf.float32) # with tf.

  • 「吴恩达机器学习」10.神经网络参数的反向传播算法2021-12-28 12:33:59

    本章主要讲解如何求解神经网络的权重(参数)。 Cost Function 主要讲解了神经网络的代价函数(分类问题中的)。 Neural Network(Classification) 引入一些标记方法方便后续讨论: 假设神经网络有\(m\)个训练样本,每个训练样本包含一组输入特征\(x\)和一组输出信号\(y\); \(L\)表示神经网络

  • 深度学习 定义优化器2021-12-25 18:33:21

    高中数学学过,函数在一阶导数为零的地方达到其最大值和最小值。梯度下降算法基于相同的原理,即调整系数(权重和偏置)使损失函数的梯度下降。在回归中,使用梯度下降来优化损失函数并获得系数。本节将介绍如何使用 TensorFlow 的梯度下降优化器及其变体。按照损失函数的负梯度成比例地

  • 深度神经网络损失函数和反向传导2021-12-22 23:00:53

           之前对于深度神经网络的学习,主要集中于如何更改模型结构,以及了解模型结构不同部分所起到的作用和原理。虽然对于注意力机制、GAT、LSTM、Transformer等不同结构的实现原理有了很好的了解,但是对于神经网络的损失函数和反向传导过程的理解程度较为差劲,如何设计损失

  • [ 机器学习 - 吴恩达 ] Linear regression with one variable 单变量线性回归 | 2-6 Gradient descent for linear regress2021-12-21 10:04:38

    梯度下降算法 repeat until convergence { \(\theta_j := \theta_j - \alpha \frac{\partial}{\partial \theta_j} J(\theta_0,\theta_1)\)    (for \(j = 1\) and \(j = 0\)) } 线性回归模型 \[h_\theta(x) = \theta_0 + \theta_1x \]\[J(\theta_0,\theta_1)=\fr

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有