ICode9

精准搜索请尝试: 精确搜索
  • torch.nn.Dropout()2022-08-16 16:01:00

    1. torch.nn.Dropout() class torch.nn.Dropout(p=0.5, inplace=False) 随机将输入张量中部分元素设置为 \(0\)。对于每次前向调用,被置 \(0\) 的元素都是随机的。 参数: p:将元素置 \(0\) 的概率。(默认:0.5) inplace:设置为 \(True\),会在原地执行操作。(默认:\(False\)) 示例: import to

  • pip安装报错:Command python setup.py egg_info failed with error code 12022-08-14 23:03:33

    原文链接 windows下使用pip安装torch模块,出现错误: ERROR: Command "python setup.py egg_info" failed with error code 1 in C:\Users\xxx\AppData\Local\Temp\pip-install-yqzlud5w\torch\ 方法一 尝试参考文章:https://mp.weixin.qq.com/s/u5uIjnABGXTJGo4Z3_dZQw 指定安装包

  • Seven---pytorch学习---维度变换2022-08-13 19:32:57

    ## pytorch学习(4) ### 维度变换 - view & reshape - squeeze & unsqueeze - transpose & permute - expand & repeat - contiguous   #### view & reshape > view() 与 reshape() 的区别 - view() 只适用于满足连续性条件的tensor,且不会开辟新的内存空间- reshape() 的返回值既

  • Six---pytorch学习---索引与切片2022-08-13 19:32:30

    pytorch学习(3) 索引与切片 普通索引 冒号索引(切片) index_select 选择特定索引 masked_select 选择符合条件的索引 take 索引 普通索引 index(有负索引) import torch a = torch.Tensor(2,3,32,32) print(a.shape) print(a[0].shape) print(a[0][0].shape) print(a[0][0][0][0]

  • Eight---pytorch学习---广播机制(broadcast)2022-08-13 19:32:20

    pytorch学习(5) 广播机制(broadcast) 矩阵运算往往都是在两个维度相同或者相匹配(前面矩阵的列数等于后一个矩阵的行数)的矩阵之间定义的,广播机制亦是如此。在机器学习的某些算法中会出现两个维度不相同也不匹配的矩阵进行运算,那么这时候就需要广播机制来解决。 broadcast的两个特

  • Nine---pytorch学习---拼接与拆分/运算统计2022-08-13 19:31:59

    ## pytorch学习(6) ### 拼接与拆分 - cat- stack- split- chunk #### cat() - 连接给定维度中给定的张量序列- 所有张量必须具有相同的形状(拼接维度除外)或为空- torch.cat() 可以看作是 torch.split() 和 torch.chunk() 的反运算- torch.cat(inputs,dim=) ```python#正确的案例

  • PyTorch 深度学习实践 第10讲:卷积 神经网络(基础篇)2022-08-12 18:00:29

    第10讲:卷积 神经网络(基础篇) 视频教程 1.卷积神经网络 说明: 首先明确输入的张量维度多少,输出的张量维度多少,利用各种层(做特征提取),进行这个维度上或者是每个维度上尺寸大小的变化,最终把它映射到想要的输出的这个空间里面 Feature Extraction:特征提取包括卷积、下采样 Classificati

  • pytorch模型转换为onnx,并使用netron可视化2022-08-11 16:01:18

    pytorch模型转换为onnx,并使用netron可视化 netron 是一个非常好用的网络结构可视化工具。 但是netron对pytorch模型的支持还不成熟。自己试的效果是生成的模型图没有连线。 目前支持的框架 根据netron的github 目前netron支持: ONNX (.onnx, .pb, .pbtxt) Keras (.h5, .keras) Core

  • 深度学习框之 静态图&动态图2022-08-11 11:33:22

    深度学习框之 静态图&动态图 各位炼丹者应该都会有自己常用的一种或几种深度学习框架,如 MxNet、Caffe、Tensorflow、Pytorch、PaddlePaddle(百度),甚至是国产新兴框架 MegEngine(旷视)、MindSpore(华为)等,在涉及介绍这些框架的时候,都会提及动态图和静态图这样的概念,那么它们究竟是

  • pytorch针对模型的不同部分设置不同学习率2022-08-07 11:31:45

    torch.optim中的优化器接收的待学习参数和学习率实际上都是字典型的数据。 因此,我们只需要将需要单独训练的模块和对应的学习率以字典形式传入即可。 例如: 此处,我们有模型model,其中包含part_1和part_2两个子模块,我们想要分别对其设置0.01与0.02的学习率,于是我们可以按照以下语法设

  • torch中乘法整理,*&torch.mul()&torch.mv()&torch.mm()&torch.dot()&@&torch.mutmal()2022-07-24 21:01:18

    *位置乘 符号*在pytorch中是按位置相乘,存在广播机制。 例子: vec1 = torch.arange(4) vec2 = torch.tensor([4,3,2,1]) mat1 = torch.arange(12).reshape(4,3) mat2 = torch.arange(12).reshape(3,4) print(vec1 * vec2) print(mat2 * vec1) print(mat1 * mat1) Output: tensor([

  • CRF2022-07-23 19:34:32

    import torch import torch.nn as nn from typing import List, Optional class CRF(nn.Module): """Conditional random field. This module implements a conditional random field [LMP01]_. The forward computation of this class computes t

  • PyTorch的torch.cat用法2022-07-23 00:35:17

    参考这篇文章,讲的比较好 https://cloud.tencent.com/developer/article/1725102 C=torch.cat((A,B),0)就表示按维数0(行)拼接A和B,也就是竖着拼接,A上B下。 C=torch.cat((A,B),1)就表示按维数1(列)拼接A和B,也就是横着拼接,A左B右。

  • pytorch 数据类型 和 numpy 数据 相互转化2022-07-21 11:35:12

    tensor to numpy tensor数据在cpu上: 如果tensor数据在cpu上,直接使用.numpy()就可以转化。 例子: 注意:torch 和 numpy 转化后 指向地址相同 如果修改原始数据,那么转换后的数据也会修改,例子: tensor数据在gpu上: 如果tensor数据在gpu上,那么需要将tensor数据先转移到cpu上面,然后在进

  • PyTorch入门——异或问题2022-07-20 20:03:41

    实验环境 CUDA版本:nvcc --versionnvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2021 NVIDIA Corporation Built on Sun_Feb_14_21:12:58_PST_2021 Cuda compilation tools, release 11.2, V11.2.152 Build cuda_11.2.r11.2/compiler.29618528_0 Python版本:python

  • 深度学习实践6(RNN)2022-07-18 17:32:03

    import torch batch_size = 1 seq_len = 3 input_size = 4 hidden_size = 2 num_layers = 1 #循环神经网络函数RNN #(输入数据(数据的时间维度x的个数,batch,单个数据的维度),记忆体数据(层数(也即第几层的hidden),hidden的维度),层数) cell = torch.nn.RNN(input_size=input_size, hidden_s

  • 模型训练随机种子及其原理2022-07-17 10:01:42

    实习中所跑实验一般都有随机种子 但是不知道原理是什么。 下边用来记录。 来源:https://wenku.baidu.com/view/eed3b921ecf9aef8941ea76e58fafab068dc445a.html def seed_everything(seed):   random.seed(seed)   os.environ['PYTHONHASHSEED'] = str(seed) np.random.seed(

  • Pytorch卷积神经网络对MNIST数据集的手写数字识别2022-07-16 13:33:38

    这个程序由两个文件组成,一个训练脚本,一个测试脚本。安装好相应依赖环境之后即可进行训练,MNIST数据集使用torchvision.datasets.mnist包自动下载。 mnistTrain.py # -*- coding: utf-8 -*- import torch from torchvision.datasets.mnist import MNIST from torchvision.transforms

  • 损失函数2022-07-16 01:02:48

    在深度学习广为使用的今天,我们可以在脑海里清晰的知道,一个模型想要达到很好的效果需要学习,也就是我们常说的训练。一个好的训练离不开优质的负反馈,这里的损失函数就是模型的负反馈。 二分类交叉熵损失函数 torch.nn.BCELoss(weight=None, size_average=None, reduce=None, reducti

  • 【动手学深度学习】51 序列模型2022-07-15 15:37:32

    %matplotlib inline import torch from torch import nn from d2l import torch as d2l T = 1000 # 总共产生1000个点 time = torch.arange(1, T + 1, dtype=torch.float32) #生成数据并加入噪音 x = torch.sin(0.01 * time) + torch.normal(0, 0.2, (T,)) d2l.plot(time, [x],

  • Pytorch分布式训练2022-07-14 23:01:42

    用单机单卡训练模型的时代已经过去,单机多卡已经成为主流配置。如何最大化发挥多卡的作用呢?本文介绍Pytorch中的DistributedDataParallel方法。 1. DataParallel 其实Pytorch早就有数据并行的工具DataParallel,它是通过单进程多线程的方式实现数据并行的。 简单来说,DataParallel有

  • 训练一个图像分类器demo in PyTorch【学习笔记】2022-07-13 19:03:44

    学习源】Tutorials > Deep Learning with PyTorch: A 60 Minute Blitz > Training a Classifier  本文相当于对上面链接教程中自认为有用部分进行的截取、翻译和再注释。便于日后复习、修正和补充。 边写边查资料的过程中猛然发现这居然有中文文档……不过中文文档也是志愿者翻

  • pip安装'torch'出现PackageNotFoundError报错解决办法2022-07-13 12:03:14

    原文链接 虚拟环境安装 若安装失败,可能权限不够,需要在根用户下安装。 进入根用户方法:https://mp.weixin.qq.com/s/RT_Yw-NB7LS1f1P59yPrbg 安装torch pip install torch 或者使用: conda install torch 报错PackageNotFound 错误信息: Fetching package metadata ........... Pac

  • 花式索引原理浅析2022-07-13 10:34:13

    假设我有如下三维tensor: matrix = torch.tensor([ [ [1,2,3], [4,5,6] ], [ [2,3,4], [5,6,7] ] ]) 索引方法为: matrix[ [ [0], [1] ], [ [0,1], [1,1] ], [ [2

  • 62序列到序列seq2seq2022-07-12 14:05:32

    点击查看代码 import collections import math import torch from torch import nn from d2l import torch as d2l # 实现循环神经网络编码器 #@save class Seq2SeqEncoder(d2l.Encoder): """用于序列到序列学习的循环神经网络编码器""" def __init__(self, vocab_size,

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有