ICode9

精准搜索请尝试: 精确搜索
  • 线性代数 -- pytorch2022-03-30 10:01:24

      import torch x = torch.tensor([3.0]) y = torch.tensor([2.0]) print(x + y, x * y, x/y, x**y)       import torch x = torch.arange(4) print(x) # 可以将向量视为标量值组成的列表 print(x[3]) # 通过张量的索引来访问任一元素 print(len(x)) # 访问张量的

  • Pytorch 中 torch.flatten() 和 torch.nn.Flatten() 实例详解2022-03-30 01:03:20

    torch.flatten()   torch.flatten(x) 等于 torch.flatten(x,0) 默认将张量拉成一维的向量,也就是说从第一维开始平坦化,torch.flatten(x,1) 代表从第二维开始平坦化。 Example: import torch x=torch.randn(2,4,2) print(x) z=torch.flatten(x) print(z) w=torch.flatten(x,1)

  • Pytorch常用创建Tensor方法总结2022-03-30 01:02:04

    1、import from numpy / list 方法:torch.from_numpy(ndarray) 常见的初始化有torch.tensor和torch.Tensor 区别: tensor():通过numpy 或 list 的现有数据初始化 Tensor(): 1、接收数据的维度(,)shape 2、接收现有的数据[,] Example: a = n

  • 【转载】 xavier,kaiming初始化中的fan_in,fan_out在卷积神经网络是什么意思2022-03-29 23:34:41

    原文地址: https://www.cnblogs.com/liuzhan709/p/10092679.html       =======================================================       xavier初始化出自论文Understanding the difficulty of training deep feedforward neural network, 论文讨论的是全连接神经网络,fan_i

  • Tensor的创建2022-03-29 16:35:35

    Import from numpy a = np.array([2, 3.3]) b = torch.from_numpy(a) a = np.ones([2, 3]) b = torch.from_numpy(a) Import from list # 接受data torch.tensor([2., 3.2]) torch.FloatTensor([2., 3.2]) # 接受shape torch.FloatTensor(2, 3) # 记得初始化! ra

  • pytorch基本语法2022-03-26 17:00:08

    pytorch安装 bing官网 找对应版本下载 记住一点:-c pytorch不要加上,否则下载速度巨慢 pytorch的基本语法 tensor张量 基本概念 标量:0维张量 矢量:一维张量 矩阵:二维张量 矩阵数组:三维张量 tensor()是一个函数 代码演示: tensor = torch.arange(2,14,2):不用手打,创建一维张量,取不到14

  • Pytorch之torch.meshgrid()2022-03-21 17:04:38

    说明:   torch.meshgrid()的功能是生成网格,可以用于生成坐标。 函数输入:   输入两个数据类型相同的一维tensor 函数输出: 输出两个tensor(tensor行数为第一个输入张量的元素个数,列数为第二个输入张量的元素个数) 注意:   1)当两个输入tensor数据类型不同或维度不是一维时会报错

  • 《深度学习框架PyTorch入门与实践》——Tensor基本操作(2)2022-03-18 17:10:28

    一、Tensor操作 ************************************************************************************************************** (1)归并操作      函数功能mean/sum/median/mju均值/和/中位数/众数nom/dist范数/距离std/var标准差/方差cumsum/cumprod累加/累乘 import

  • with torch.no_grad()2022-03-09 11:03:06

    在pytorch中,tensor有一个requires_grad参数,如果设置为True,则反向传播时,该tensor就会自动求导。tensor的requires_grad的属性默认为False,若一个节点(叶子变量:自己创建的tensor)requires_grad被设置为True,那么所有依赖它的节点requires_grad都为True(即使其他相依赖的tensor的requires

  • Pytorch 损失函数总结2022-03-09 09:32:58

    1 nn.L1Loss   torch.nn.L1Loss(reduction='mean')   就是 MAE(mean absolute error),计算公式为     $\ell(x, y)=L=\left\{l_{1}, \ldots, l_{N}\right\}^{\top}, \quad l_{n}=\left|x_{n}-y_{n}\right|$     $\ell(x, y)=\left\{\begin{array}{ll}\opera

  • torch.randn和torch.rand函数2022-03-08 12:33:52

    1.均匀分布torch.rand(*sizes, out=None) → Tensor 返回一个张量,包含了从区间[0, 1)的均匀分布中抽取的一组随机数。张量的形状由参数sizes定义。 参数:  sizes (int...) - 整数序列,定义了输出张量的形状; out (Tensor, optinal) - 结果张量 例子:torch.rand(2, 3) 0.0836 0.615

  • 深度学习准确率(acc)计算方法2022-03-06 09:00:22

    本文简单介绍模型训练时候,使用准确率求解过程,不涉及精确率和召回率计算, 本文给出简要计算方法与代码。   计算方法: 使用top1计算为例(以下以2个batch,3个num_classes举列): 网络预测结果形式:pred=[b,num_classes] ,如pred=[[0.6,0.8,0.9],[0.7,0.4,0.3]] 真实标签形式:label=[b],如bat

  • 【TensorFlow】关于张量(tensor)的基本操作——创建,切片2022-03-05 12:33:44

    1、创建张量 通过 tf.convert_to_tensor 函数可以创建新 Tensor,并将保存在 Python List 对象或者Numpy Array 对象中的数据导入到新 Tensor 中。 通过 tf.zeros()和 tf.ones()即可创建任意形状,内容为全0或全1的张量。 通过tf.fill(shape,value)可以创建全为自定义数值的张量,形状

  • PyTorch + OpenVINO 开发实战系列教程 第一篇2022-03-03 14:05:10

    第1章 Pytorch介绍与基础知识 大家好,本章是主要介绍一下深度学习框架Pytorch的的历史与发展,主要模块构成与基础操作代码演示。重点介绍Pytorch的各个组件、编程方式、环境搭建、基础操作代码演示。本章对有Pytorch开发经验的读者来说可以直接跳过;对初次接触Pytorch的读者来说,通

  • Lesson 13.3 梯度不平稳性与Glorot条件2022-03-02 19:30:51

    Lesson 13.3 梯度不平稳性与Glorot条件   从本节开始,将正式进入到优化方法的具体方法部分内容。首先是关于激活函数使用过程的优化。在上一节的结尾,我们发现,尽管激活函数的使用能够有效提升神经网络模型效果,但激活函数的简单叠加却会让模型出现很多问题。深度学习本来就是

  • PaddlePaddle实战教程(一)Tensor基础2022-03-02 19:01:27

    参考:飞桨PaddlePaddle-源于产业实践的开源深度学习平台 Tensor(张量)介绍 同Pytorch一样,PaddlePaddle用Tensor来表示数据,在神经网络中传递的数据均Tensor。Tensor可以将其理解为多维数组,其可以具有任意多的维度,不同Tensor可以有不同的数据类型 (dtype) 和形状 (shape)。同一Tens

  • Pytorch——BatchNorm层和LayerNorm层的参数含义以及应用理解2022-03-02 19:00:11

       在我们平常面试和工程中会用到BN和LN,但或许没有去了解过BN和LN到底在那个维度上进行的正则化(减均值除以标准差)。下面将会采用各种例子来为大家介绍BN层和LN层各个参数以及差别。  一、BatchNorm(批标准化):   BatchNorm一共有三个函数分别是BatchNorm1d,BatchNorm2d,BatchNo

  • torch.var()、样本方差、母体方差2022-02-28 16:01:17

    文章目录 方差的分类torch.var 方差的分类 这两者有显然的区别,为什么会有这个区别呢? 区别有二,这两个区别互相联系,不可分割: 数据的多少。上面这个只有一部分样本,而下面这个是有完整数据,即总体,母体。目的。你是要算这部分数据的方差,还是要估计总体的方差。如果是前者,那

  • tf.convert_to_tensor()函数的使用 | 数据类型转换2022-02-26 11:33:01

    #将python的数据类型(列表和矩阵)转换成TensorFlow可用的tensor数据类型 import tensorflow as tf import numpy as np A = [1,2,3] B = np.array([1,2,3]) C = tf.convert_to_tensor(A) D = tf.convert_to_tensor(B) print(type(A), A) print(type(B), B) print(type(C), C) pri

  • Pytorch : tensor 与 numpy 的 ndarray 相互转化 pytorch 张量与 numpy 数组之间转化2022-02-25 10:32:59

    1. 转换方法: 1. tensor => ndarray : tensor.numpy() 2. ndarray => tensor : tensor = torch.from_numpy(ndarray)

  • pytorch学习笔记二之自动差分引擎2022-02-25 02:31:54

      自动差分引擎¶   torch.autograd是 PyTorch 的自动差分引擎,可为神经网络训练提供支持。   1. 背景¶   神经网络(NN)是在某些输入数据上执行的嵌套函数的集合。 这些函数由参数(由权重和偏差组成)定义,这些参数在 PyTorch 中存储在张量中。 训练 NN 分为两个步骤:

  • 【CV】Pytorch中的Tensor常用的类型转换函数2022-02-24 21:30:00

    转载自https://www.cnblogs.com/sbj123456789/p/10839020.html,侵删 Pytorch中的Tensor常用的类型转换函数(inplace操作): (1)数据类型转换 在Tensor后加 .long(), .int(), .float(), .double()等即可,也可以用.to()函数进行转换,所有的Tensor类型可参考https://pytorch.org/docs/s

  • 自然语言处理(二十七):迁移学习2022-02-23 18:30:18

    自然语言处理笔记总目录 1 迁移学习有关概念 预训练模型 大模型,具有复杂的网络结构,参数比较多,在足够大的语料集上训练出来的模型 微调(Fine-tuning) 微调的对象:预训练模型微调的部分:改变模型的部分参数或者新增加的输出结构微调的动作:在较小的语料集上进行训练微调的目

  • Tensorflow读代码笔记(一)2022-02-22 21:31:19

    Tensorflow代码笔记(一) tf.app.run 函数入口,类似于c/c++中的main(),大概意思是通过处理flag解析,然后执行main函数。 有两种情况: · 如果你的代码中的入口函数不叫main(),而是一个其他名字的函数,如test(),则你应该这样写入口tf.app.run(test) · 如果你的代码中的入口函数叫main()

  • Torch训练全连接时需要注意的几个点2022-02-21 17:00:16

    如果是卷积之后的层 一定要先化为一个维度 exp: x = x.view(x.size(),-1) ps: view函数的解释 把原先tensor中的数据按照行优先的顺序排成一个一维的数据(这里应该是因为要求地址是连续存储的),然后按照参数组合成其他维度的tensor。比如说是不管你原先的数据是[[[1,2,3],[4,5,6]]]

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有