ICode9

精准搜索请尝试: 精确搜索
  • tf.summary使用过程中报错: tags and values not the same shape2021-12-27 06:33:00

    近来使用tensorflow中的tf.summary模块进行调试,用来主程序运行时打印想要看的张量的形状shape, 以及值value. 虽然使用的tensorflow版本1.15.5, 即使使用tf.enable_eager_execution()也无法看到张量的实际各维的长度。     涉及到tf.summary部分的代码: edges_0_shape = tf.Prin

  • 深度学习报错集合(自用>>>持续更新)2021-12-26 23:33:35

    Tensorflow 1、IndentationError: unexpected indent 代码缩进有问题 2、TypeError: Fetch argument 5 has invalid type <class 'int'>, must be a string or Tensor. (Can not convert a int into a Tensor or Operation.) 把int32 换成float32 3、Tensor("Add:

  • 看FFA原作者的代码学到的2021-12-25 13:32:32

    for step in range(start_step+1,opt.steps+1): 为什么要把numpy转成tensor “因为tensor是专门为GPU加速设计的矩阵,而numpy却不行。其实就相当于一个为GPU设计的数据结构。 添加链接描述

  • PaddlePaddle inference 源码分析(四)2021-12-24 18:03:23

    本节介绍预测处理的流程。预测处理流程主要分为3部分,包括准备输入数据、执行、获取输出数据。 一、放入输入数据 简单的使用方法如下所示: vector<string> input_names = predictor->GetInputNames(); unique_ptr<Tensor> input_t = predictor->GetInputHandle(input_names[0]); i

  • 参数访问、初始化和共享2021-12-22 15:33:50

    引言 最初我们会以init模块来初始化模型的参数。现在我们将深入了解如何访问和初始化模型参数,以及如何在多个层之间共享同一份模型参数。 我们先定义一个含单隐藏层的多层感知机。我们依然使用默认方式初始化它的参数,并做一次前向计算。与之前不同的是,在这里我们从nn中导入了

  • 赶快收藏,PyTorch 常用代码段合集真香2021-12-22 14:35:06

    本文是 PyTorch 常用代码段合集,涵盖基本配置、张量处理、模型定义与操作、数据处理、模型训练与测试等5个方面,还给出了多个值得注意的Tips,内容非常全面。 本文已制作成PDF版,需要可以私信获取。 喜欢记得点赞、收藏学习、关注。 废话不多说,我们开始吧! 资料专栏 李航老师《统计

  • DEEP LEARNING WITH PYTORCH: A 60 MINUTE BLITZ | TENSORS2021-12-20 15:35:28

    TENSORS   张量是一种特殊的数据结构,非常类似于数组合矩阵。在PyTorch中,我们使用tensor 编码模型的输入和输出,以及模型的参数。   Tensor类似于NumPy的ndarrays,除了tensor可以在GPUs或其它特殊的硬件上运行以加速运算。如果你对ndarrays非常熟悉,那么你对Tensor API也会很熟悉。

  • PyTorch 对类别张量进行 one-hot 编码2021-12-19 10:02:53

    参考: -TORCH.INDEX_SELECT -PyTorch 对类别张量进行 one-hot 编码 正文 index_select torch.index_select(input, dim, index, *, out=None) → Tensor - input (Tensor) – the input tensor. - dim (int) – the dimension in which we index - index (IntTensor or LongTenso

  • pytorch的杂七杂八2021-12-18 22:05:38

    数据 contiguous() 博客 相当于深拷贝 scatter_() 博客 可以利用这个功能将pytorch 中mini batch中的返回的label转为one-hot类型的label label = torch.tensor([1,3,3,5]) one_hot_label = torch.zeros(mini_batch, out_planes).scatter_(1,label.unsqueeze(1),1) print(one_hot_

  • Pytorch numpy 与 tensor 互相转换2021-12-16 23:03:04

    Pytorch中numpy 与 tensor互相转换 1.numpy 转 tensor     可以使用torch.tensor()直接将numpy转换为tensor,但是此时数据会被复制,不会与原来的数据      共享内存。     可以使用torch.from_numpy()将numpy转换为tensor,会与原来的数据共享内存。 2.tensor 转 numpy

  • Pytorch入门上 —— Dataset、Tensorboard、Transforms、Dataloader2021-12-15 21:33:13

    本节内容参照小土堆的pytorch入门视频教程。学习时建议多读源码,通过源码中的注释可以快速弄清楚类或函数的作用以及输入输出类型。 Dataset 借用Dataset可以快速访问深度学习需要的数据,例如我们需要访问如下训练数据: 其中,train中存放的是训练数据集,ants和bees既是文件夹名称也是

  • Pytorch——tensor的相关概念2021-12-12 13:34:05

    Tensor的概念 说起张量(tensor)就不得不说他和scalar、vertor、matrix之间的关系了,直接上图: 标量(scalar):只有大小概念,没有方向的概念。通过一个具体的数值就能表达完整。比如:重量、温度、长度、提及、时间、热量等都数据标量。 向量(vector):物理学上也叫矢量,指由大小和方向共同决定的

  • pytorch-contiguous2021-12-12 12:04:14

    参考:https://zhuanlan.zhihu.com/p/64551412 PyTorch中的is_contiguous是什么含义? is_contiguous直观的解释是Tensor底层一维数组元素的存储顺序与Tensor按行优先一维展开的元素顺序是否一致。 行优先 行是指多维数组一维展开的方式,对应的是列优先。 C/C++中使用的是行优先方式(row

  • torch.norm()2021-12-10 13:31:18

    求指定维度上的范数 torch.norm(input, p, dim, out=None,keepdim=False) → Tensor 函数参数 input (Tensor) – 输入张量 p (float) – 范数计算中的幂指数值 dim (int) – 缩减的维度,dim=0是对0维度上的一个向量求范数,返回结果数量等于其列的个数,也就是说有多少个0维度的向量,

  • Pytorch 学习笔记3 Autogard:Pytorch中的梯度计算2021-12-10 12:33:37

    Autogard:Pytorch中的梯度计算 用PyTorch构建的神经网络,其梯度计算是通过torch.autograd来完成的。当我们进行了一系列计算,并想获取一些变量间的梯度信息,需要进行以下步骤: 1.构建一个计算图,用Variable将Tensor包装起来,形成计算图中的节点。然后Variable之间进行各种运算就像Tens

  • 【01】tensorflow2基础2021-12-08 18:34:41

    文章目录 数据类型基本数据类型有通过TensorFlow的方式去创建张量tensor常见且有用的属性numpy转tensor 数据类型 几乎所有数据都可以叫张量(tensor),根据维度来区分,可以分为: 标量(Scalar)。单个的实数,如1.2, 3.4 等,维度(Dimension)数为0,shape 为[]。 向量(Vector)。n个

  • (3)torch.nn神经网络--损失函数与反向传播 + 优化器2021-12-08 13:58:19

    7.损失函数Loss 损失Loss,通常是指神经网络的输出预测值与真实值之间的差距,作用在于: ①计算实际输出和目标之间的差距 ②为我们更新输出提供一定的依据(反向传播) 举例说明:具体各函数的定义在pytorch官方文档https://pytorch.org/docs/stable/nn.html#loss-functions 我们定义两

  • torch.masked_select太好用了2021-12-05 18:01:51

    torch.masked_select用于截取valid的标签太好用了: pred=torch.tensor([2,3,4,5]) mask=torch.ByteTensor([1,1,0,0]) torch.masked_select(pred,mask) # deprecated, 用bool值更好 mask=torch.tensor([1,1,0,0],dtype=torch.bool) output: tensor([2, 3])

  • pytorch-微分2021-12-05 16:30:50

    文章目录 引言主要用到的包和类: 一些小测试梯度梯度下降的实战例子-考虑最简单的一层神经网络张量梯度和雅可比积 引言 在训练神经网络时,最常用的算法是 反向传播。在该算法中,参数(模型权重)根据损失函数相对于给定参数的梯度进行调整。 为了计算这些梯度,PyTorch 有一个名

  • Pytorch函数1 torch.max\ torch.min\ torch.squeeze\ torch.unsqueeze\ torch.rand \randn \randint2021-12-04 23:59:52

    1.torch.max(input)         输入input:任何形状的张量         输出:返回输入张量input中所有元素的最大值 。 import torch a = torch.randn((3,4,5)) b = torch.max(a) # 返回所有张量中的最大值 print(a) tensor([[[-0.5234, -2.3275, 1.8327, 0.53

  • torch.where()函数解读2021-12-03 22:32:09

    函数作用 torch.where()函数可以是按照给定的条件合并两个tensor; 条件满足的位置取前者,否则取后者。 代码示例 >>> import torch >>> a=torch.randn(3,5) >>> b=torch.ones(3,5) >>> a tensor([[-0.0310, 1.5895, 1.6003, -1.7584, 1.1478], [ 0.6773, 0.7763, 0.

  • Layer_Norm2021-12-03 16:34:47

    Layer-Norm 代码示例 import torch import torch.nn as nn input = torch.tensor([[2., 2.], [3., 3.]]) print(input) """ tensor([[2., 2.], [3., 3.]]) """ layer_norm = nn.LayerNorm([2, 2]) output = layer_

  • 深度学习-线性代数2021-12-01 17:02:18

    标量(scalar)与向量 标量,仅包含⼀个数值,只有⼀个元素的张量表⽰。可将向量视为标量值组成的列表。这些标量值称为向量的元素(elements)或分量(components) x = torch.arange(4)  #tensor([0, 1, 2, 3]) 若⽂献认为列向量是向量的默认⽅向,则描述为4X1矩阵,x[3] == tensor(3) 当一个向量

  • 深度学习模型tensor维度对不上怎么办2021-11-30 17:33:07

    深度学习模型tensor维度对不上是一个非常常见且有时比较难排查的现象。之所以难排查是因为报错信息和真实的错误原因之间的联系往往并不紧密,很难仅仅从PyTorch给出的数字上的信息判断错误在何处。 笔者在一个训练好的模型上测试单个样本时出现了这个问题,一度排查了图片读取、

  • TorchVision中通过AlexNet网络进行图像分类2021-11-27 16:35:12

          TorchVision中给出了AlexNet的pretrained模型,模型存放位置为https://download.pytorch.org/models/alexnet-owt-4df8aa71.pth ,可通过models.alexnet函数下载,此函数实现在torchvision/models/alexnet.py中,下载后在Ubuntu上存放在~/.cache/torch/hub/checkpoints目录下,在

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有