ICode9

精准搜索请尝试: 精确搜索
  • 学习进度记录2022-02-07 13:35:20

    状态:目前处于机器学习入门阶段,大一学生 学习进度,初步入门正规方程,梯度下降(线性回归),梯度下降(逻辑回归),决策树(剪枝未实现),朴素贝叶斯,神经网络 解释:初步入门:数学原理推导,代码实现(按照数学思维打核心代码);但是还未用数据集进行测试(sklearn数据集测试) 初步计划:按照寒假学习计划把算

  • 【Tensorflow深度学习】线性回归——梯度下降法2022-02-07 11:03:23

    线性模型实战——玩具样例(Toy Example) 对于已知真实模型的玩具样例(Toy Example),我们直接从指定的

  • 神经网络的学习-搭建神经网络实现mnist数据集分类2022-02-06 16:02:39

    文章目录 四、神经网络的学习1.损失函数2.损失函数的意义3.数值微分4.梯度法5.学习算法的实现 四、神经网络的学习 这一章通过两层神经网络实现对mnist手写数据集的识别,本文是源于《深度学习入门》的学习笔记 若理解困难,参考上一章笔记:深度学习入门-从朴素感知机到神

  • 深度学习——fastai第四课 04_minist_basics2022-02-03 16:02:14

    文章目录 幕后:训练一个数字分类器像素:计算机视觉的基础边栏:韧性和深度学习 初尝试:像素相似NumPy 数组和PyTorch 张量 使用广播计算评价指标随机梯度下降(SGD)计算梯度通过学习率执行`step`一个端到端的SGD例子1 初始化参数2 计算预测值3 计算损失4 计算梯度5 执行(更新)权重6

  • 《Deep Learning for Computer Vision withPython》阅读笔记-StarterBundle(第8 - 9章)2022-02-03 14:30:38

    从本章开始将仅记录书中的重点内容翻译并记录,供日后复习使用 8. 参数化学习 本章的大部分灵感来自Andrej Karpathy在斯坦福cs231n课堂中出色的线性分类注释[74]。非常感谢卡帕西和其他的cs231n助教把这些可访问的笔记放在一起。 8.1线性分类简介 8.1.1参数化学习的四个组成部

  • 深度学习中几种常用的优化器2022-02-01 14:31:10

    参考: https://zhuanlan.zhihu.com/p/261695487(推荐) https://blog.csdn.net/qq_19917367/article/details/119208803 https://zhuanlan.zhihu.com/p/61955391(推荐) https://zhuanlan.zhihu.com/p/86591381 一、随机梯度下降法(Stochastic Gradient Descent, SGD) 1、参数更新 注:α为

  • opencv-边缘检测2022-01-31 16:03:32

    文章目录 一、Canny边缘检测1.1高斯滤波器2.1梯度和方向3.1非极大值抑制4.1双阈值检测 一、Canny边缘检测 Canny边缘检测器是一种被广泛使用的算法,并被认为是边缘检测最优的算法,该方法使用了比高斯差分算法更复杂的技巧,如多向灰度梯度和滞后阈值化 步骤 1.平滑图像:使用

  • python使用梯度下降拟合直线2022-01-30 11:59:42

    python使用梯度下降拟合直线 #目标直线y=w_t*x+b_t import random #定义学习率 a=0.01 epoch = 3000 #初始化 w=random.random() b=random.random() w_t=random.random() b_t=random.random() print(w_t,w,b_t,b) for i in range(epoch): #生成样本数据 x=random.random

  • Batch Normalization的理解2022-01-29 16:35:09

    原文链接:   Batch Normalization原理与实战 - 知乎 (zhihu.com)   总结:   背景:权重矩阵W的梯度与其左边那一层的激活值有关(参考:理解方向传播(BP算法) - Hisi - 博客园 (cnblogs.com)),而且如果用ReLU激活函数会导致梯度爆炸会消失,或者是sigmoid函数以及tanh函数会导致梯度消失,所

  • PyTorch入门一 || 基础知识回顾,手动搭建模型,理解前馈、反向传播2022-01-29 15:58:00

    一、 维度诅咒 属性 = 特征,特征越多所需要的数据就越多 维度越高(特征越多)对数据的需求就越大, 比如一维特征 只需要10个数据,那么二维特征想要达到相同的数据密度就需要 102 个数据,N维特征就需要10N 个数据。 由于数据集需要人工标注,所以我们需要降低维数,将高维数据映射成低维

  • pytorch detach()2022-01-29 14:31:32

    https://www.cnblogs.com/wanghui-garcia/p/10677071.html 神经网络的训练有时候可能希望保持一部分的网络参数不变,只对其中一部分的参数进行调整;或者值训练部分分支网络,并不让其梯度对主网络的梯度造成影响,torch.tensor.detach()和torch.tensor.detach_()函数来切断一些分支的反

  • 【MindSpore:跟着小Mi一起机器学习】单变量线性回归(二)2022-01-28 20:31:28

    小Mi学习,向上积极!在上一篇机器学习中,小Mi已经带大家认识了单变量线性回归的数学模型,以及对应代价函数的图形解释,小Mi也提及过,我们真正需要的是一种有效的算法,能够自动地找出这些使代价函数J取最小值的参数,来,因此它来了它来了!今天小Mi在此基础上,继续带大家一起学习梯度下降算法。 3

  • 正规方程的介绍及与梯度下降的对比2022-01-27 22:04:39

    对于某些线性回归问题,正规方程会给我们一个更好的方法,来求得参数 θ \theta θ的最优值 到目前为止,我们都在使用梯度下降算法,我们使用这种迭代算法,经过很多步,也就是梯度下降的多次迭代,来

  • 面试神仙打架?探秘华为人工智能工程师岗位2022-01-27 22:03:10

    ©原创作者 | 三金 写在前面: “得人工智能者得天下”,这句话在互联网圈子流传盛广。人工智能工程师岗位薪酬普遍较高,让部分毕业生眼前一亮,毕业后直接加入到了相关岗位的竞争中,面试堪称神仙打架。 而华为作为全球领先的ICT(信息与通信)基础设施和智能终端提供商亦设有该岗位,今天就

  • Pytorch-Lightning训练技巧2022-01-24 18:59:54

    Pytorch-Lightning训练技巧 梯度累计 在Trainer中设置accumulate_grad_batches=k,可以使得模型在进行k个batch_size后再进行反向传播。假设batch_size=N,这样的效果相当于batch_size=k*N。 # 默认没有梯度累计 trainer = Trainer(accumulate_grad_batches=k) 梯度裁剪

  • 从PyTorch中的梯度计算出发谈如何避免训练GAN中出现inplace error2022-01-22 11:57:59

    one of the variables needed for gradient computation has been modified by an inplace operation这个错误在利用对抗网络时很容易出现,这往往是由于不熟悉PyTorch的计算图和梯度传播机制造成的。 叶子结点与非叶子结点 import torch a = torch.tensor([1., 2, 3]).require

  • 导数,偏导数,方向导数,梯度2022-01-21 17:03:13

    @梯度 梯度 为什么梯度是函数方向变化中最快的,梯度是矢量 为什么梯度是函数方向变化中最快的,梯度是矢量 从导数==>偏导数==>方向导数==>梯度由浅入深的分析梯度 提示:以下是本篇文章正文内容,下面案例可供参考 一、导数 二、偏导数 三、偏导数几何意义 四、方向导数与梯度

  • PyTorch线性回归2022-01-20 23:02:45

    回归:一个或多个自变量与因变量之间的关系之间建模的方法,经常用来表示输入和输出之间的关系 分类:预测数据属于一组类别的哪一个 一个简单的线性模型 线性回归是对n维输入的加权,外加偏差使用平方损失来衡量预测值与真实值的差异(乘1/2为了求导方便,并没有太大影行)线性回归有显示

  • 详解策略梯度算法2022-01-20 16:35:20

    详解策略梯度算法 引言 根据智能体学习的不同,可将其分为Value-based方法、Policy-based方法以及Actor-Critic方法。之前我们介绍的Q-learning、Saras和DQN都是基于价值去学习,虽然这种强化学习方法在很多领域都获得较多的应用,但是它的局限性也是比较明显。首先这类算法基本上都是处

  • 计算机机器视觉原理之分类器22022-01-19 20:59:13

    计算机视觉 一.对于损失函数二.正则项与超参数三.优化算法参数优化梯度下降算法梯度计算:随机梯度下降算法小批量梯度下降算法四.数据集划分K折交叉验证五.数据预处理 一.对于损失函数 损失函数: 单样本的多累支撑向量机损失: 线性分类器: 1.多类支撑向量机损失L;的最大/

  • HOG特征2022-01-18 22:30:00

    文章目录 HOG特征1. 图像预处理1.1 图像灰度化,gamma矫正 2. 计算梯度图 HOG特征 HOG特征( Histogram of Oriented Gradients 方向梯度直方图)是一种在图像上找到特征描述子,主要通过计算和统计图像局部区域的梯度方向直方图来构成特征。来源于cvpr 2015 年论文。 算法流程

  • 【PyTorch学习】二、自动求梯度(Automatic Gradient)2022-01-17 19:06:04

    PyTorch学习(二) 前言一、autograd自动求梯度二、使用步骤1.示例一2.示例二 前言 torch.autograd是 PyTorch 的自动差分引擎,可为神经网络训练提供支持。 神经网络就是寻求一个拟合函数,但是因为参数过多,所以不得不借助每一点的梯度来一点一点的接近最佳的loss值,PyTorch 拥

  • PyTorch之Checkpoint机制解析2022-01-16 14:04:34

    PyTorch之Checkpoint机制解析 本文已授权极市平台, 并首发于极市平台公众号. 未经允许不得二次转载. 原文链接:https://www.yuque.com/lart/ugkv9f/azvnyg PyTorch 提供了一种非常方便的节省显存的方式,就是 Checkpoint 机制。这篇文章的目的在于更透彻的了解其内在的机制。 Check

  • 集成学习相关面试知识点2022-01-15 10:33:18

    集成学习 该内容由个人整理和归纳,如有不同见解,还望指教~ 集成学习方法有哪些?bagging和boosting的区别?(京东) Boosting: AdaBoost, 提升树, GBDT, XGBoost, LightGBM Bagging: 随机森林 区别: 样本采样方式不同:Bagging 是按照一定标准进行有放回采样,每次的采样是独立的,而 Boosti

  • BP算法总结2022-01-15 04:01:38

            BP算法(Back Propagation),即反向传播算法,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。BP算法会计算网络中所有权重的损失函数的梯度,这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。它的学习过程由信号的正向传播(求损失)与误

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有