ICode9

精准搜索请尝试: 精确搜索
  • 第一周学习2021-09-03 16:02:40

    数据操作 主要学习了简单的 pytorch 张量创建、参数以及运算操作。 # 导入pytorch包 import torch # 初始化一个有12个元素的行张量 x = torch.arange(12) # 查看形状 x.shape x.numel() # 改变形状为 3 x 4 x = x.reshape(3, 4) # 生产一个 2 x 3 x 4 的全0张量 torch.zeros

  • python 实用技巧:几十行代码将照片转换成素描图、随后打包成可执行文件(源码分享)2021-09-01 22:03:00

    效果展示 原始效果图 素描效果图 相关依赖包 # 超美观的打印库 from pprint import pprint # 图像处理库 from PIL import Image # 科学计算库 import numpy as np # GUI文件打开窗口 import tkinter.filedialog 制作文件打开窗口 # 创建根窗口 root = tkinter.Tk().withdra

  • Python 实现自动微分2021-08-25 10:35:47

    用了差不多一天多的时间,把自动微分基本整明白了,并且实现(抄)了一遍。 李理大神的这篇博客讲的非常清楚明白,即使我这样的小白也能看明白:http://fancyerii.github.io/books/autodiff/ ,理论讲解都在这篇里了,这里不再赘述。 代码的话是参考这篇:https://zhuanlan.zhihu.com/p/161635270 ,

  • Backward Propagation 反向传播2021-08-21 10:32:09

    深度学习神经网络训练过程主要涉及到两个过程,一个是数据前向传播(data forward-propagation),输入数据经过网络正向计算,输出最终结果;另一个是误差反向传播(error backward-propagation),网络输出结果的误差和梯度反向传播,并更新权重。反向传播过程又可以细分为两部分:1)求梯度;2)梯度下

  • Pytorch使用autograd.function自定义op2021-08-17 01:32:49

    0x01 简介 Pytorch是利用Variable与Function来构建计算图的,Function就像计算图中的边,实现Variable的计算,并输出新的Variable,因此Function需要有forward和backward的功能,前者用于正常传递输入,后者用于计算梯度.(但直接用nn.Module构建就可以只用写forward,backward调用自动求导计

  • 线性回归——pytorch实现2021-08-16 21:35:07

    1 import torch 2 import matplotlib.pyplot as plt 3 import os 4 os.environ['KMP_DUPLICATE_LIB_OK'] = 'TRUE' 5 6 lr = 0.001 7 see = 20000 8 x = torch.rand([1, 50]) 9 y = 3 * x + 0.8 10 11 w = torch.rand([1, 1], requires_grad=T

  • 线性回归pytorch实现笔记2021-08-12 18:01:42

    线性回归pytorch实现笔记 实例一 【用 Pytorch 实现一个简单的线性回归】 本周首先学的是《动手学深度学习(pytorch版)》里面的线性回归的实现,但是有些东西看不懂,所以先在b站上找了个简单的视频跟着学了一遍 实例一 【用 Pytorch 实现一个简单的线性回归】 课程来自: Py

  • PyTorch笔记--关于backward()2021-08-12 16:04:21

    PyTorch会根据计算过程来自动生成动态图,然后可以根据动态图的创建过程进行反向传播,计算得到每个结点的梯度值。  为了能够记录张量的梯度,在创建张量的时候可以设置参数requires_grad = True,或者创建张量后调用requires_grad_()方法。 >>> x = torch.randn(2, 2, requires_grad =

  • 关于pytorch下GAN loss的backward和step等注意事项2021-08-09 04:32:21

    首先不妨假设最简单的一种情况: 假设$G$和$D$的损失函数: 那么计算梯度有:       第一种正确的方式: import torch from torch import nn def set_requires_grad(net: nn.Module, mode=True): for p in net.parameters(): p.requires_grad_(mode) print(f"Py

  • 《动手学深度学习》第二章 预备知识2021-08-07 18:57:58

    函数参数前*表示参数为元组,表示接收若干个参数,转换成元组。 **表示参数为字典,表示接收若干个参数,转换为字典。就是函数中*args和**kwargs,接收若干个参数。 直接在列表 元组 字典变量名前面加*,表示会将其拆分为一个个的独立元素。 张量索引值第一位是0,数据结构位序第一位是

  • 【PyTorch】自定义损失函数2021-08-02 20:59:47

    通常损失函数可以直接使用 P y T o r c h

  • 提高模型的训练性能(一)2021-07-29 14:31:40

    转载地址:https://bbs.huaweicloud.com/forum/thread-118716-1-1.html 作者:李响 梯度累积引入Mini-batch的概念,首先对每个Mini-batch的数据计算loss和梯度,但不立即更新模型参数,而是先对所得梯度进行累加,然后在指定数量(N)个Mini-batch之后,用累积后的梯度更新网络参数。下次训练前清

  • 线性回归从零实现2021-07-26 17:00:19

    一、前言 我们将从零开始实现整个方法,包括数据流水线、模型、损失函数和小批量随机梯度下降优化器。虽然现代的深度学习框架几乎可以自动化地进行所有这些工作,但从零开始实现可以确保你真正知道自己在做什么。 例子中我们先用自己设置好的w和b去生成数据集,再用建立的模型去跑数据

  • 编程干货|Python最实用的四个处理图形场景2021-07-23 19:02:20

    前言 Python是一款非常适合不懂代码的小白们去探索和学习的语言,因为他的功能非常多,几乎无所不能,能极大的增加小白对编程的兴趣。 Python在实现某个技术的时候可能不是最合适的,但可能是最简洁,最能被大众所接受的。 今天奋斗君给大家推荐几个用python处理图像的案例,加上源码大家可

  • OpenCV之更多梯度算子2021-07-21 20:29:33

    python代码: import cv2 as cv import numpy as np src = cv.imread("./test.png") cv.namedWindow("input", cv.WINDOW_AUTOSIZE) cv.imshow("input", src) robert_x = np.array([[1, 0],[0, -1]], dtype=np.float32) robert_y = np.array([[0

  • RuntimeError element 0 of tensors does not require grad and does not have a grad_fn..2021-07-11 17:52:58

    Exception has occurred: RuntimeError (note: full exception trace is shown but execution is paused at: _run_module_as_main) element 0 of tensors does not require grad and does not have a grad_fn ... 如下图所示: 出现这个问题的绝大部分原因是:梯度反向传播

  • Pytorch修改指定模块权重的方法,即 torch.Tensor.detach()和Tensor.requires_grad方法的用法2021-07-11 15:55:28

    0、前言 在学习pytorch的计算图和自动求导机制时,我们要想在心中建立一个“计算过程的图像”,需要深入了解其中的每个细节,这次主要说一下tensor的requires_grad参数。 无论如何定义计算过程、如何定义计算图,要谨记我们的核心目的是为了计算某些tensor的梯度。在pytorch的计算图中,

  • 【pytorch->mindspore】1.自定义算子迁移2021-07-07 20:35:45

    要迁移的项目为图像压缩算法https://github.com/ywz978020607/HESIC 1.自定义算子迁移--LowerBoundFunction类 为了能够准确迁移底层封装的类,需要详细测试原版类以及迁移测试 pytorch中自定义的算子有torch.autograd.Function import torch import torch.nn as nn class LowerBo

  • 张量的简介与创建2021-07-05 14:04:10

    1.variable封装Tensor,进行自动求导 data:被封装的Tensor grad:data的梯度 grad_fun:创建Tensor的方法,是求导的关键 requires_grad:表示是否需要梯度 is_leaf:表示是否是叶子节点 2.pyTorch0.4.0版本开始,variable并入Tensor dtype:张量的数据类型,如torch.cuda:表示数据存入cp

  • 1 预备知识2021-07-01 01:01:09

    2.1、张量初始化 import torch 几种初始化方式 torch.zeros((3,4)), torch.ones((1,2)), torch.tensor([[1,2,3], [4,54,5]]), torch.randn(5,6) 2.1.2、张量元素操作 1.对于应常数的+,-,乘,除, 张量对应元素位置进行加减乘除即可 2.使用== 和 > 和 < 比较各元素大小 a = torch.tenso

  • PyTorch官方Tutorials Autograd2021-06-30 20:30:09

    PyTorch官方Tutorials 跟着PyTorch官方Tutorials码的,便于理解自己稍有改动代码并添加注释,IDE用的jupyter notebook 链接: Autograd AUTOMATIC DIFFERENTIATION WITH TORCH.AUTOGRAD 用torch.autograd自动微分 When training neural networks, the most frequently used alg

  • pytorch0-梯度取反2021-06-21 16:04:36

    借助torch.autograd中的Function import torch from torch.autograd import Function import torch.nn as nn class ReverseLayer(Function): @staticmethod def forward(ctx, x): return x @staticmethod def backward(ctx, grad_output): ret

  • PyTorch中的拷贝与就地操作详解2021-06-16 14:59:22

    前言 PyTroch中我们经常使用到Numpy进行数据的处理,然后再转为Tensor,但是关系到数据的更改时我们要注意方法是否是共享地址,这关系到整个网络的更新。本篇就In- palce操作,拷贝操作中的注意点进行总结。 In-place操作 pytorch中原地操作的后缀为_,如.add_()或.scatter_(),就地操作

  • 《Boosting Monocular Depth Estimation Models to High-Resolution...》论文笔记2021-06-15 00:02:19

    参考代码:BoostingMonocularDepth 论文:Boosting Monocular Depth Estimation Models to High-Resolution via Content-Adaptive Multi-Resolution Merging 1. 概述 导读:这篇文章提出了一种使用现有深度估计模型(MiDas)生成具有更高分辨率/更多细节表现深度图的方法(同时保持高分

  • 记录自己调试SSD过程(第一次写,如有不对,请各位指正)2021-06-12 22:04:13

    从github中下载源码(https://github.com/amdegroot/ssd.pytorch),按照readme文件中的步鄹进行安装,运行。 训练 1.下载数据集VOC2007(训练,测试),VOC2012(训练),可以自己创建新的文件夹,也可以在源代码的data文件下创建小的文件夹。预训练文件(vgg16_reducedfc.pth),放置在weights文件中

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有