ICode9

精准搜索请尝试: 精确搜索
  • treevalue——Master Nested Data Like Tensor2022-02-14 23:33:08

    首先,请和我一起高呼——“treevalue——通用树形结构建模工具 + 极简树形结构编程模型”。 咳咳,好久没更新了,这一次是真的好久不见,甚是想念。在之前的三期中,关于 treevalue 的核心特性等内容已经基本完成了讲述。因此本篇作为该系列的终章,将尝试用更高一层的视角来分析 treevalu

  • PyTorch 介绍 | AUTOMATIC DIFFERENTIATION WITH TORCH.AUTOGRAD2022-02-08 09:32:33

    训练神经网络时,最常用的算法就是反向传播。在该算法中,参数(模型权重)会根据损失函数关于对应参数的梯度进行调整。 为了计算这些梯度,PyTorch内置了名为 torch.autograd 的微分引擎。它支持任意计算图的自动梯度计算。 一个最简单的单层神经网络,输入 x,参数 w 和 b,某个损失函数。它可

  • 计算图--叶子节点、with torch.no_grad()学习2022-02-06 15:32:26

    参考连接1:https://zhuanlan.zhihu.com/p/416083478     更清楚 参考连接2:https://blog.csdn.net/weixin_43178406/article/details/89517008    更全面 1、requires_grad 在pytorch中,tensor有一个requires_grad参数,如果设置为True,则反向传播时,该tensor就会自动求导。tenso

  • pytorch基础知识(三)2022-02-06 14:02:29

    在不同设备上的张量 查看张量的存储位置创建时指定存储设备张量转换设备的几种方法GPU转移到cpucpu 转移到GPU                张量可以在两个设备上进行存储和进行相关的计算,CPU和GPU。本节内容介绍,张量在不同设备上的存储和转移。 查看张量的存储位置

  • pytorch.Variables()以及和tensor的区别2022-02-05 15:32:18

    Varibale包含三个属性: data:存储了Tensor,是本体的数据 grad:保存了data的梯度,本事是个Variable而非Tensor,与data形状一致 grad_fn:指向Function对象,用于反向传播的梯度计算之用 Variable和Tensor之间的区别:1. Variable是可更改的,而Tensor是不可更改的。2. Variable用于存储网络中的

  • pytorch——反向传播22022-02-04 11:34:27

    #模型为w1*x*x+w2*x+b import torchx_data=[1,2,3]y_data=[2,4,6]#三个tensorw1=torch.tensor([1.0])w1.requires_grad=Truew2=torch.tensor([2.0])w2.requires_grad=Trueb=torch.tensor([1.0])b.requires_grad=Truedef forward(x): return w1*x*x+w2*x+bdef loss(x, y): y_

  • 深度学习——fastai第四课 04_minist_basics2022-02-03 16:02:14

    文章目录 幕后:训练一个数字分类器像素:计算机视觉的基础边栏:韧性和深度学习 初尝试:像素相似NumPy 数组和PyTorch 张量 使用广播计算评价指标随机梯度下降(SGD)计算梯度通过学习率执行`step`一个端到端的SGD例子1 初始化参数2 计算预测值3 计算损失4 计算梯度5 执行(更新)权重6

  • 《深度学习框架PyTorch入门与实践》——Tensor基本操作(1)2022-02-02 15:03:03

    《深度学习框架PyTorch入门与实践》——Tensor基本操作(1) 一.PyTorch入门第一步 1.构建53矩阵* import torch as t x = t.Tensor(5,3) print(x) ----------------------------------------------在pycharm中的运行结果--------------------------------------------------

  • Transforms的使用(一)2022-02-02 00:01:38

    from PIL import Image from torchvision import transforms #transforms实际上是一个python文件 里面有很多的类,因此可以理解为transforms是一个工具箱,可以将你的图片转换成你需要的结果 #通过 transforms.ToTensor 去解决两个问题: #1. transforms如何使用 #2. 为什么需要Te

  • 图片数据处理2022-02-01 22:00:32

    from PIL import Image import numpy as np from torchvision import transforms #读取图片 img = Image.open('data/hymenoptera_data/train/bees/3030772428_8578335616.jpg') #PIL图片转换为ndarray img_array = np.array(img) #PIL图片转换为tensor trans = torchvis

  • PyTorch 3 - 模型相关方法2022-02-01 21:30:43

    文章目录 创建模型模型初始化、参数保存/加载模型自动求导梯度函数损失函数mse二分类 bce多分类 创建模型 如,创建线性模型 class LinearModel(nn.Module): def __init__(self, ndim): super(LinearModel, self).__init__() self.ndim = ndim

  • Tensor数据类型2022-02-01 15:57:59

    opencv+totensor+tensorboard 使用 from torch.utils.tensorboard import SummaryWriter from torchvision import transforms import cv2 writer = SummaryWriter('logs') tool = transforms.ToTensor() img_path = r'data/hymenoptera_data/hymenoptera_data

  • 关于数学运算2022-01-31 22:00:20

    加、减、乘、除 这里直接用 符号 + - * / 就可以运算,结果和用函数是一样的,不过都要满足能运算的条件,满足broadcasting, a = torch.rand(3,4) b = torch.rand(4) c1 = a + b c2 = torch.add(a,b) d = torch.all(torch.eq(a-b,torch.sub(a,b))) #判断两种方法是否殊途同归 e =

  • Broadcasting、合并and拆分2022-01-30 22:06:08

     broadcasting 它的功能就是能够实现自动维度的扩展,使两个tensor的shape相同, 也就是说节省了 unsqueeze 和 expand 操作,高效并且不需要复制数据,节省内存 关键思想       只有size一致才能进行对应位置元素的相加 如下图,第一行,两个tensor的shape相等,可以直接相加 第

  • PyTorch中常用的一些函数2022-01-30 18:01:14

    主要用于记录一些比较常用的函数,便于查找。未记录的可查看PYTORCH TUTORIALS,PyTorch中文文档 目录torch.unsqueezetorch.transposetorch.nn.Lineartorch.tensor.repeattorch.tensorviewtorch.cat(tensors, dim=0, *, out=None) torch.squeeze(input, dim=None, *, out=None) tor

  • pytorch flatten()2022-01-29 15:02:34

       torch.flatten(input, start_dim, end_dim). 举例:一个tensor 3*2* 2 start_dim=1  output 3*4 start_dim=0 end_dim=1.    6*2 如果没有后面两个参数直接变为一维的  

  • pytorch detach()2022-01-29 14:31:32

    https://www.cnblogs.com/wanghui-garcia/p/10677071.html 神经网络的训练有时候可能希望保持一部分的网络参数不变,只对其中一部分的参数进行调整;或者值训练部分分支网络,并不让其梯度对主网络的梯度造成影响,torch.tensor.detach()和torch.tensor.detach_()函数来切断一些分支的反

  • Pytorch常用代码段2022-01-29 13:31:03

    前言 本文转载于收藏 | PyTorch常用代码段合集 PyTorch最好的资料是官方文档。本文是PyTorch常用代码段,在参考资料[1](张皓:PyTorch Cookbook)的基础上做了一些修补,方便使用时查阅。 1. 基本配置 导入包和版本查询 import torch import torch.nn as nn import torchvision print

  • 张量tensor高维数组的理解(Tensor 与numpy操作类似,本文以高维数组举例)2022-01-29 11:32:47

    a = np.arange(120).reshape(2,3,4,5)  得到shape为(2,3,4,5)的高维数组a,输出a为: [[[[ 0 1 2 3 4] [ 5 6 7 8 9] [ 10 11 12 13 14] [ 15 16 17 18 19]] [[ 20 21 22 23 24] [ 25 26 27 28 29] [ 30 31 32 33 34]

  • 深度学习--bbox坐标转换(任意格式【list,numpy,tensor】、任意维度【向量、一维矩阵、二维矩阵】)2022-01-28 23:03:39

    作者提示:可能存在错误,在我的电脑上可以运行; 写程序过程中发现不同的人写的边界框转换程序不一样, 有的只能转换numpy矩阵, 有的只能是转换tensor矩阵, 我就尝试着写了一个可以转换任何维度的任意格式的bbox函数。 水平不够,写的时候用的时间长了,脑袋就有些晕乎乎的,就发出来希望大

  • 交叉损失熵函数【学习笔记】2022-01-28 17:05:16

    交叉损失熵函数的表达式为: 假设一个三分类问题,该问题的标签为: PersonDogCat012 将一张狗的图片输入神经网络,得到输出[0.1,0.6,0.3] 则有: 我们编程来验证一下: import torch from torch.nn import CrossEntropyLoss x = torch.tensor([0.1,0.6,0.3]) y = torch.tensor([1]) x =

  • Pytorch Cross Entropy2022-01-27 08:01:13

    Entropy Uncetainly measure of surprise higher entropy = less info \[Entropy = -\sum_i P(i)\log P(i) \]Lottery import torch a = torch.full([4], 1/4.) a * torch.log2(a) tensor([-0.5000, -0.5000, -0.5000, -0.5000]) -(a * torch.log2(a)).sum() tensor(

  • Pytorch Chain-Rules2022-01-27 08:00:19

    Derivative Rules \[\begin{aligned} &\frac{\delta E}{\delta w^1_{jk}}=\frac{\delta E}{\delta O_k^1}\frac{\delta O_k^1}{\delta w^1_{jk}}=\frac{\delta E}{\delta O_k^2}\frac{\delta O_k^2}{\delta O_k^1}\frac{\delta O_k^1}{\delta w^1_{jk

  • 神经网络基本骨架、结构的使用2022-01-26 22:59:39

    目录 神经骨架的使用 基本神经结构的使用 神经骨架的使用         首先我们进官网进行相关信息的查询: container(相当于一个骨架)之中有六个模块,最常用的是module模块,因为对所有神经网络提供了一个最基本的类。         根据module的介绍,我们知道自己创建的mo

  • [源码分析] Facebook如何训练超大模型--- (5)2022-01-26 09:02:45

    [源码分析] Facebook如何训练超大模型--- (5) 目录[源码分析] Facebook如何训练超大模型--- (5)0x00 摘要0x01 背景0x02 思路2.1 学习建议2.2 具体思路2.3 最佳实践0x03 具体实现3.1 Wrapper3.2 如何使用3.2 _checkpointed_forward3.2.1 处理输入3.2.2 非张量输出3.2.2.1 压缩非张

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有