ICode9

精准搜索请尝试: 精确搜索
  • 【小白学习PyTorch教程】一、PyTorch基本操作2021-06-12 19:30:59

    @Author:Runsen 文章目录 什么是 PyTorch?张量张量运算PyTorch 和 NumPy的转换AutoGrad 什么是 PyTorch? 这是一个基于Python的科学计算包,面向两组受众: NumPy的替代品,以利用GPU的力量。 提供最大灵活性和速度的深度学习研究平台。 张量 张量类似于NumPy 的n 维数组,此外张量

  • difference between a Tensor and a Variable2021-06-12 12:30:04

    文字版说明: Variable在 Pytorch0.4.0之后以及被tensor(requires_grad=True)所取代了. The Variable API has been deprecated in Pytorch0.4.0: Variables are no longer necessary to use autograd with tensors. Autograd automatically supports Tensors with requires_gra

  • 最优化算法最速下降法、牛顿法、拟牛顿法 Python实现2021-06-12 10:34:43

    ---------------------------------------2020.9.23更新--------------------------------- 把 BFGS(x)改写了一下,变简洁了 def BFGS(x): #拟牛顿法 epsilon, h, maxiter = 10**-5, 10**-5, 10**4 Bk = np.eye(x.size) for iter1 in range(maxiter): grad =

  • opencv车牌定位与提取(vs2019 & c++)2021-06-11 23:31:56

    车牌特征提取的思路: (1)首先我们来看车牌部分与其他部分的区别,及车牌的特征,整体的车牌定位及提取方案即时基于此(基于灰度图像中考虑): a.车牌部分是矩形 b.车牌具有特定的长宽比; c.车牌的面积一定 (2)接着我们对整幅图片进行预处理(车牌特征提取思路,实际代码部分可能为了更好的显示效

  • Pytorch Note6 自动求导Autograd2021-06-11 15:04:14

    Pytorch Note6 自动求导Autograd 自动求导简单情况的自动求导复杂情况的自动求导多次自动求导小练习 全部笔记的汇总贴:Pytorch Note 快乐星球 自动求导 用Tensor训练网络很方便,但有时候反向传播过程需要手动实现。这对于像线性回归等较为简单的模型来说,还可以应付,但实际

  • 深度学习--Pytorch(一)2021-06-09 21:30:54

    PyTorch深度学习实践 python基础知识 ##设置变量范围 numpy.arrange(0.0,4.0,1.0) # 表示0,1,2,3 ##2D画图 import matplotlib.pyplot as plt plt.plot(x,y) plt.xlabel('x轴名称') plt.ylabel('y轴名称') plt.show() ##3D画图 https://blog.csdn.net/guduruyu/article/detai

  • Regression2021-06-06 15:01:42

    回归模型拟合曲线 设定y = x2 + 1,使用简单回归模型基于y = wx2 + b对w和b进行拟合,利用梯度下降多次迭代,具体过程如下: import torch import numpy from matplotlib import pyplot as plt %matplotlib inline # 随机生成x数据,在-1到1之间 x = torch.unsqueeze(torch.linspace(

  • Pytorch学习-自动求梯度2021-05-23 14:35:21

    2.3 自动求梯度 对函数计算梯度(gradient),Pytoch提供的autograd包能够根据输入和前向传播过程自动构建计算图,并执行反向传播。 2.3.1 概念 Tensor是autograd包的核心类 如果将其属性.requires_grad设置为True,它将开始追踪在其上的所有操作(这样就可以利用链式法则进行梯度传播)。 完成

  • 女朋友嘲笑我没有艺术气息,我不服!!一气之下我用python画素描人像2021-05-18 23:02:38

    女朋友嘲笑我没有艺术气息,我不服!!一气之下我用python画素描人像 写在前面代码实现需要安装的库安装库命令程序源码 总结 写在前面 都说5月20日是网络情人节,作为程序员的李伟,平时忙着敲代码,难得有时间可以陪女朋友,然而却收来女朋友的一条消息。。 伟哥这仅有的几根头发多

  • mxnet makeloss2021-05-15 23:59:04

      https://github.com/jacke121/Fairface-Recognition-Solution https://github.com/paranoidai/Fairface-Recognition-Solution/blob/7f12bc4462cc765fe8d7a7fa820c63bfe2cc9121/train/pair_wise_loss.py 好几种loss函数: if loss_type =='triplet':     # -*- coding=u

  • pytorch中.data()与.item()2021-05-15 12:04:26

    1..data() 将变量(Variable)变为tensor,将requires_grad设置为Flase a = torch.tensor([1.0], requires_grad=True) b = a.data print(b, b.requires_grad) ## 输出为: tensor([1.]) False 2.`.item() a = torch.tensor([1.0], requires_grad=True) c = a.item() print(c, type(

  • 李宏毅 机器学习(2017)学习笔记——1-梯度下降法实例2021-05-08 22:00:53

    目录 1. 源代码 2. 代码函数解析 numpy.arange() numpy.zeros(shape, dtype=float, order=‘C’) numpy.meshgrid() matplotlib.pyplot.contourf([X, Y,] Z,[levels], **kwargs) matplotlib.pyplot.get_cmap() matplotlib.pyplot.plot((x, y, format_string, **kwargs) 3. 实验

  • pyTorch节省显存2021-05-08 16:57:15

    基本上,PyTorch所做的是,每当我通过网络传递数据并将计算存储在GPU内存中时,它都会创建一个计算图,以防我想在反向传播期间计算梯度。但由于我只想执行正向传播,所以只需要为模型指定torch.no_grad()。 因此,我的代码中的for循环可以重写为: 为我的模型指定no_grad()会告诉PyTorch

  • 五个有趣的Python练手小项目,附代码2021-04-27 16:01:32

      Python不仅相对其他编程语言来说容易上手,在生活中,可能Python的技术范围程度没有其他编程语言深,但Python 绝对是最接地气的,论起来,Python亲民度也可以说是老大哥的位置了。那么Python在我们生活中有哪些有趣的小功能可以运用呢?   一、词云图     你是不是经常能在网络上看

  • gonum计算函数最小值2021-04-25 18:05:01

    python库中有scipy.optimze.minimize来计算函数最小值,golang中同样有gonum库实现同样功能,为什么要舍近求远呢? 最近在学习golang图形化库fyne,想写一个小程序,实现三边定位计算,在计算定位时涉及到最小值优化问题,可以用python的scipy库解决,但是既然用了go,那就一条路黑到底,所以网上找了

  • Pytorch基础入门——Autograd2021-04-22 21:04:54

    autograd自动微分 这部分概念参考自https://www.jianshu.com/p/5ae644748f21,感兴趣的小伙伴可以去看作者的原文。 假如我们有一个向量x=(1,1)当成input,经过一系列运算得到了output变量y,如下图所示:   如图所示,向量x经过与4和自身相乘之后得到向量z,z再求长度,得到y 我们想要

  • PyTorch 自动微分示例2021-04-16 06:32:42

    PyTorch 自动微分示例 autograd 包是 PyTorch 中所有神经网络的核心。首先简要地介绍,然后训练第一个神经网络。autograd 软件包为 Tensors 上的所有算子提供自动微分。这是一个由运行定义的框架,以代码运行方式定义后向传播,并且每次迭代都可以不同。从 tensor 和 gradients 来举一

  • 梯度计算2021-04-10 23:33:10

    x Out[87]: tensor([[1., 1.], [1., 1.]], requires_grad=True) y=x+2 z=y*y*3 z Out[90]: tensor([[27., 27.], [27., 27.]], grad_fn=<MulBackward0>) out=z.mean() out Out[92]: tensor(27., grad_fn=<MeanBackward0>) out.backward() ou

  • 交叉熵损失函数(Cross_entropy loss)的梯度下降法中w和b的梯度问题2021-04-08 23:59:30

    # 计算梯度值(?) def gradient(X, Y_label, w, b): # This function computes the gradient of cross entropy loss with respect to weight w and bias b. y_pred = forward(X, w, b) pred_error = Y_label - y_pred w_grad = -np.sum(pred_error * X.T, 1)

  • 练习12021-04-08 14:33:36

    【需求】输入一个分数。分数在0-100之间。90以上是A,80以上是B,70以上是C,60以上是D,60以下是E。 方法1、 score = int(input("请输入分数:")) grad = "" if score >100 or score <0: score = int(input('请输入分数(0-100):')) elif score >= 90: grad = 'A' eli

  • torch.normal()2021-04-08 11:05:14

    torch.normal(A, B ,size(C, D), requires_grad=True) A表示均值,B表示标准差 ,C代表生成的数据行数,D表示列数,requires_grad=True表示对导数开始记录,可以忽略。 1 import torch 2 w = torch.normal(1, 0.02, size=(3, 1), requires_grad=True) 3 print(w) 得到的结果为: tensor

  • 0407手动实现线性回归2021-04-07 14:01:16

    import torch from matplotlib import pyplot as plt # 1.准备数据 # y = 3x +0.8 learning_rate = 0.01 x = torch.randn([500,1]) y_true = 3*x+0.8 # 2.计算预测值 w = torch.rand([1,1],requires_grad=True) b = torch.tensor(0,requires_grad=True,dtype=torch.float3

  • <从零开始pytorch>:01-torch的基本使用方法和线性回归模型2021-04-04 14:58:41

    记录pytorch的学习过程 – 备注多,方便查阅 torch的基本使用方法实现一个线性回归模型并测试 import torch torch.__version__ '1.8.0+cpu' 1.torch基本的使用方法` 1.1创建一个矩阵0矩阵 x = torch.empty(5,3) x tensor([[0., 0., 0.], [0., 0., 0.], [0

  • 亚麻4年老员工跑毒回国,面字节惨遭秒拒!2021-03-29 09:57:08

    今年招聘力度可以说是近几年最大!比如字节跳动旗下的大力教育,高调宣布:“未来4个月,大力教育招聘1万人!” 不过有人从国外归来,面试惨遭滑铁卢:工作4年后再次经历面试,才发现系统设计能力是硬伤。 很多出身大厂的人,或许因为业务架构稳定,不需要再搭建;又或许本身就是个“搬砖工”,也

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有