ICode9

精准搜索请尝试: 精确搜索
  • [源码解析]PyTorch如何实现前向传播(1) --- 基础类(上)2021-10-18 17:33:58

    [源码解析]PyTorch如何实现前向传播(1) --- 基础类(上) 目录[源码解析]PyTorch如何实现前向传播(1) --- 基础类(上)0x00 摘要0x01 总体逻辑0x02 废弃类2.1 Variable2.2 Function0x03 Tensor3.1 定义 in python3.2 查找定义3.2.1 Tensor3.2.2 _TensorBase3.3 转换3.3.1 Python 导入

  • 【PyTorch基础教程4】反向传播与计算图(学不会来打我啊)2021-10-17 21:03:00

    学习总结 (1)loss实际在构建计算图,每次运行完后计算图就释放了。 (2)Tensor的Grad也是一个Tensor。更新权重w.data = w.data - 0.01 * w.grad.data的0.01乘那坨其实是在建立计算图,而我们这里要乘0.01 * grad.data,这样是不会建立计算图的(并不希望修改权重w,后面还有求梯度)。 (3)下面

  • 李宏毅机器学习P3-4学习笔记2021-10-15 22:04:01

    P3回归模型 主要针对回归的定义、回归模型的三个构建步骤及优化模型的三个步骤进行说明,在优化模型中,构建一元N次线性模型和增加特征值的方法都有可能带来过拟合的问题,对过拟合的规律进行了说明。本节含有较多公式推理,未做叙述。P3内容见图片。 P4回归案例的计算  代码链接:回归

  • pytorch的基本知识2021-10-15 19:05:17

    非常感谢,datawhale提供的课程资源:https://www.bilibili.com/video/BV1e341127Lt?p=2 以下是这个课程的笔记 一、tensor的属性: type:float,long, device的属性:用什么卡,比如CPU,GPU requires_grad属性:是否支持求导 pin_memory属性:是否塞到内存里面,运算快,但是内存高 is_leaf:是

  • 深度学习利器之自动微分(2)2021-10-14 17:33:21

    深度学习利器之自动微分(2) 目录深度学习利器之自动微分(2)0x00 摘要0x01 前情回顾0x02 自动微分2.1 分解计算2.2 计算模式2.3 样例2.4 前向模式(Forward Mode)2.4.1 计算过程3.4.2 推广3.4.3 问题3.5 反向模式(Reverse Mode)3.5.1 思路3.5.2 计算过程3.5.3 推广3.5.4 内存问题和inpla

  • pytorch基础2021-10-13 12:58:31

    文章目录 下载安装:张量tensor简介0维张量/标量 标量是一个数字(scalar)1维张量/向量 1维张量称为“向量”。(vector)2维张量 2维张量称为矩阵(matrix)3维张量 :公用数据存储在张量 时间序列数据 股价 文本数据 彩色图片(RGB) (n-dimensional tensor) 创建tensortensor和numpy array

  • Pytorch基础知识2021-10-10 10:59:29

    1. 张量 注意是张量,不是麻辣烫,哈哈哈。(冷笑话又多了) 张量(Tensor)可能是Pytorch中最重要的数据形式了,也是整个运算的基础。那什么是张量呢?个人理解就是向量和矩阵的推广。比如我们常见的图片,它是由RGB三通道表示的,那一张图片就可以由一个(width, height, channel)的三维字段来

  • 深度学习——反向传播算法及代码实例(B站刘二大人P4学习笔记)2021-10-08 13:03:22

    1 为什么要引入反向传播算法?        在之前的学习中,我们仅仅学习了只有一层的神经网络的计算,例如模型函数为,在使用梯度下降算法进行训练的时候,很轻松就可以利用求导公式计算出。        但是在神经网络中不可能仅仅只有一层,神经网络就行我们大脑的神经系统,由很多层攀枝

  • Back Propagation - Python实现2021-10-07 13:35:31

    算法特征①. 统一看待线性运算与非线性运算; ②. 确定求导变量loss影响链路; ③. loss影响链路梯度逐级反向传播. 算法推导Part Ⅰ以如下简单正向传播链为例, 引入线性运算与非线性运算符号, 相关运算流程如下,$$ \begin{equation*} \begin{split} &\text{linear operation }

  • [源码解析] PyTorch 流水线并行实现 (5)--计算依赖2021-10-07 11:05:16

    [源码解析] PyTorch 流水线并行实现 (5)–计算依赖 文章目录 [源码解析] PyTorch 流水线并行实现 (5)--计算依赖0x00 摘要0x01 前文回顾0x02 计算依赖0x03 反向传播依赖2.1 解析2.2 基础功能2.2.1 Function2.2.2 Fork2.2.3 Join2.2.4 Phony2.2.5 detach 2.3 使用 0x03 正向

  • [源码解析] PyTorch 流水线并行实现 (5)--计算依赖2021-10-07 11:01:12

    [源码解析] PyTorch 流水线并行实现 (5)--计算依赖 目录[源码解析] PyTorch 流水线并行实现 (5)--计算依赖0x00 摘要0x01 前文回顾0x02 计算依赖0x03 反向传播依赖2.1 解析2.2 基础功能2.2.1 Function2.2.2 Fork2.2.3 Join2.2.4 Phony2.2.5 detach2.3 使用0x03 正向传播依赖3.1 分

  • 深度学习基础:3.反向传播和梯度下降2021-10-05 17:33:06

    动态计算图 计算图可以用来表示两个变量之间的关系。例如,构建 y = x 2 y=x^2 y=x2,则可

  • PyTorch Week 12021-10-05 15:31:30

    PyTorch Week 1 目录一、张量简介与创建Tensor 与 Variable张量的创建 二、张量操作与线性回归张量拼接与切分张量索引张量变换张量运算线性回归 三、计算图与动态图机制计算图动态图 VS 静态图 四、autograd五、逻辑回归对数几率回归与线性回归机器学习模型训练步骤 作业1

  • 大规模人脸分类—allgather操作(1)2021-10-02 17:33:43

     pytorch中 all_gather 操作是不进行梯度回传的。在计算图构建中如果需要经过all_gather操作后,仍需要将梯度回传给各个进程中的allgather前的对应变量,则需要重新继承torch.autograd.Function https://pytorch.org/docs/stable/autograd.html 中对torch.autograd.Function进行了介

  • sgd Momentum Vanilla SGD RMSprop adam等优化算法在寻找函数最值的应用2021-10-02 17:29:56

    1\sgd q=q-a*gt a是学习率  gt是函数的梯度 也就是沿着梯度的反方向得到下降最快的,最快能找到函数的最值 2 Momentum 然后q=q-mt   3 RMSprop   4 Adam Adam[6] 可以认为是 RMSprop 和 Momentum 的结合。和 RMSprop 对二阶动量使用指数移动平均类似,Adam 中对一阶动量也

  • Pytorch深度学习实践(b站刘二大人)_04讲2021-10-02 13:02:43

    本节课讲的是反向传播。 课堂代码: #反向传播课上代码 import torch x_data = [1.0, 2.0, 3.0] y_data = [2.0, 4.0, 6.0] w = torch.tensor([1.0]) # w的初值为1.0 w.requires_grad = True # 默认为False,True表示需要计算梯度 def forward(x): return x * w d

  • Pytorch深度学习实践(b站刘二大人)_03讲2021-10-02 12:34:58

    刘老师讲的十分细节,易于理解,大家可以去学习,课堂地址,废话不多说,直接上代码。 梯度下降算法课堂代码: # 梯度下降算法 import matplotlib.pyplot as plt x_data = [1.0,2.0,3.0] y_data = [2.0,4.0,6.0] w = 1.0 def forward(x): return x * w #计算损失函数MSE def co

  • Mismatch in shape: grad_output[0] has a shape of torch.Size([2]) and output[0] has a shape of torch.2021-10-01 10:35:05

    错误日志 错误一: Mismatch in shape: grad_output[0] has a shape of torch.Size([2]) and output[0] has a shape of torch.Size([2, 2]) 错误二  expected sequence of length 2 at dim 1 (got 1) 错误原因 在进行 张量 梯度求解时,传入数据维度不对  错误代码示例 impor

  • 【深度学习】60题PyTorch简易入门指南,做技术的弄潮儿2021-09-23 14:00:38

    1 初识PyTorch 1.1 张量 1.导入pytorch包 import torch 2.创建一个空的5x3张量 x = torch.empty(5, 3) print(x) 3.创建一个随机初始化的5x3张量 x = torch.rand(5, 3) print(x) 4.创建一个5x3的0张量,类型为long x = torch.zeros(5, 3, dtype=torch.long) print(x) 5.直

  • 验证误差反向传播算法2021-09-21 12:04:57

    给出结论:误差反向传播算法,传播的是损失函数对各个参数的偏导数(就是导数),也可以简单理解成梯度(梯度的定义可不是这样的) 大致流程是搭一个简单网络,找到里面的各个参数,训练一次网络并进行误差反向传播,再次查看各个参数,验证结果,以下是详细过程。 这里我们新建一个简化的网络,输入层

  • PyTorch深度学习基础2021-09-19 12:34:47

    PyTorch深度学习基础 一、Tensor对象及其运算 1、torch.tensor()创建Tensor对象 使用tensor数据类型时,可以通过dtype属性指定它的数据类型 print('torch.Tensor 默认为:{}'.format(torch.Tensor(1).dtype)) print('torch.tensor 默认为:{}'.format(torch.tensor(1).dtype)) '''

  • Numpy实现RNN2021-09-16 09:34:36

    class RNN(Layer): """A Vanilla Fully-Connected Recurrent Neural Network layer. Parameters: ----------- n_units: int The number of hidden states in the layer. activation: string The name of the activation

  • 非线性优化--NLopt算法使用及C++实例2021-09-16 09:31:22

    非线性优化--NLopt算法使用及C++实例 NLopt 支持的算法命名规律:算法选择选择全局优化要注意的问题 CodeResult 看这篇之前建议先看这篇,里面讲了非线性优化的原理即相关名词的概念,然后介绍了NLopt的使用方法,这个方法是基于C语言的,本片介绍一个NLopt的实例,用的C++语言。

  • (三) DP-SGD 算法解释2021-09-13 21:01:38

    We are starting a series of blog posts on DP-SGD that will range from gentle introductions to detailed coverage of the math and of engineering details in making it work. Introduction In this first entry, we will go over the DP-SGD algorithm focusing on in

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有