ICode9

精准搜索请尝试: 精确搜索
  • [ 机器学习 - 吴恩达 ] Linear regression with one variable 单变量线性回归 | 2-5 Gradient descent intuition 直观理解梯度下降2021-12-21 10:00:09

    repeat until convergence { \(\theta_j := \theta_j - \alpha\frac{\partial}{\partial \theta_j}J(\theta_0,\theta_1)\)  \((for\ j = 0\ and\ j = 1\)) } \(\alpha\): 学习率 如果学习率太小,梯度下降将很慢 如果学习率很大,梯度下降会越过最小值。可能不会收敛,甚至发散   就

  • pytorch中的Variable()2021-12-20 10:04:05

    函数简介 torch.autograd.Variable是Autograd的核心类,它封装了Tensor,并整合了反向传播的相关实现(tensor变成variable之后才能进行反向传播求梯度?用变量.backward()进行反向传播之后,var.grad中保存了var的梯度) x = Variable(tensor, requires_grad = True) Varibale包含三个

  • 反向传播神经网络2021-12-19 13:02:33

    前向传播神经网络模型: 激活函数: 对输出进行编码: 加入正则化项的代价函数: 反向传播神经网络模型: △的更新公式: 反向传播神经网络的梯度公式为: 加入正则化项后: 对比之前线性回归的梯度公式: 梯度检测 对Θ随机初始化 最后用优化算法算出θ 结果评测: 优化算法:

  • 【阅读笔记】Inverting Gradients -- How easy is it to break privacy in federated learning?2021-12-18 22:30:32

    Inverting Gradients 前言一、论文解析Abstract1 Introduction2 Related Work3 Theoretical Analysis: Recovering Images from their Gradients3.1 Proposition(命题) 4 A Numerical Reconstruction Method5 Single Image Reconstruction from a Single GradientTrained vs.

  • Pytorch之requires_grad——转载2021-12-18 15:31:36

    requires_grad是Pytorch中通用数据结构Tensor的一个属性,用于说明当前量是否需要在计算中保留对应的梯度信息,以线性回归为例,容易知道权重w和偏差b为需要训练的对象,为了得到最合适的参数值,我们需要设置一个相关的损失函数,根据梯度回传的思路进行训练。 官方文档中的说明如下 If ther

  • 【论文】水文 - PIRATE: A blockchain-based secure framework of distributed machine learning in 5g networks2021-12-17 21:02:29

    PIRATE: A blockchain-based secure framework of distributed machine learning in 5g networks 主要贡献: 5G时代,通信延迟和网络带宽不再是移动设备的瓶颈,每个移动设备都可参与分布式学习(可用性),分布式系统在上传本地模参和聚合模型过程中可能会遭受拜占庭攻击,模型安全成为新

  • 【每日一更】<吴恩达-机器学习>正规方程&不可逆性2021-12-16 20:34:42

    目录 一、Normal equation - 正规方程: 1.梯度下降法: 2.正规方程法: 3.梯度下降和正规方程的选择: 二、正规方程和不可逆性 - Normal equation and non-invertibility: 一、Normal equation - 正规方程: 1.梯度下降法:  Normal equation: Method to solve for  analytically.

  • 不会真有人觉得聊天机器人难吧——从计算图到自动求导(上)2021-12-15 23:34:31

    引言 借用修仙小说体写的标题,主要目的就是吸引你点进来

  • NLP(四十一):解决样本不均衡FocalLoss与GHM2021-12-15 10:31:29

    Focal Loss for Dense Object Detection 是ICCV2017的Best student paper,文章思路很简单但非常具有开拓性意义,效果也非常令人称赞。 GHM(gradient harmonizing mechanism) 发表于 “Gradient Harmonized Single-stage Detector",AAAI2019,是基于Focal loss的改进,也是个人推荐的一

  • 【每日一更】<吴恩达-机器学习>2021-12-14 23:03:24

    目录 一、Linear Regression with multiple variable - 多变量线性回归: 二、Gradient descent for multiple carables - 多变量梯度下降: 三、Feature Scaling - 特征缩放: 1.特征缩放方法:  2.归一化和标准化的区别: 四、Learning rate - 学习率: 一、Linear Regression with m

  • QSGD: Communication-Efficient SGD via Gradient Quantization and Encoding2021-12-10 19:34:41

    随机梯度下降(SGD)的并行实现由于其出色的可扩展性而受到了极大的研究关注。并行SGD时的一个基本障碍是节点之间通信梯度更新的高带宽成本;因此,提出了几种有损压缩启发式算法,其中节点只传递量化梯度。虽然在实践中有效,但这些启发式方法并不总是收敛。 在本文中,我们提出了量化SGD(QSGD

  • Pytorch 学习笔记3 Autogard:Pytorch中的梯度计算2021-12-10 12:33:37

    Autogard:Pytorch中的梯度计算 用PyTorch构建的神经网络,其梯度计算是通过torch.autograd来完成的。当我们进行了一系列计算,并想获取一些变量间的梯度信息,需要进行以下步骤: 1.构建一个计算图,用Variable将Tensor包装起来,形成计算图中的节点。然后Variable之间进行各种运算就像Tens

  • 机器学习系列:大规模机器学习(Large Scale Machine Learning)2021-12-08 21:58:49

    目录 1、大型数据集的学习 2、随机梯度下降法 3、小批量梯度下降 4、随机梯度下降收敛   1、大型数据集的学习 如果我们有一个低方差的模型,增加数据集的规模可以帮助你获得更好的结果。我们应该怎样应对一个有100万条记录的训练集? 以线性回归模型为例,每一次梯度下降迭代,我们都

  • 李宏毅机器学习组队学习打卡活动day05---网络设计的技巧2021-12-06 14:02:59

    写在前面 报名了一个组队学习,这次学习网络设计的技巧,对应的是李宏毅老师深度学习视频的P5-p9。 参考视频:https://www.bilibili.com/video/av59538266 参考笔记:https://github.com/datawhalechina/leeml-notes 局部最小值和鞍点 在梯度下降的时候,优化有些时候会失败,即出现了梯度

  • 写算子单元测试Writing Unit Tests!2021-12-06 06:00:06

    写算子单元测试Writing Unit Tests! 一些单元测试示例,可在tests/python/relay/test_op_level3.py中找到,用于累积总和与乘积算子。 梯度算子 梯度算子对于编写Relay中的可微程序非常重要。虽然Relay的autodiff算法可区分一流的语言结构,但算子是不透明的。Relay无法查看实现,必须提供

  • DO NOT LET PRIVACY OVERBILL U TILITY: G RADIENT E MBEDDING P ERTURBATION FOR P RIVATE L EARNING2021-12-05 23:33:45

    在差分隐私机制中,训练数据模型的隐私泄漏是有界的。然而,对于有意义的隐私参数,当模型包含大量可训练参数时,差异私有模型会显著降低效用。在本文中,我们提出了一种梯度嵌入扰动(GEP)算法,用于训练具有较高精度的差异私有深度模型。具体而言,在每个梯度下降步骤中,GEP First将单个私有梯度

  • 阅读笔记:FedGNN: Federated Graph Neural Network for Privacy-Preserving Recommendation2021-12-05 21:32:05

    FedGNN: Federated Graph Neural Network for Privacy-Preserving Recommendation ICML’21 | 隐私保护下的图神经网络推荐系统 (qq.com). 重点是看GNN与联邦学习怎么结合的?? 1. What does literature study? a. 提出基于GNN的隐私保护联邦推荐框架,在隐私保护下利用高阶user-i

  • 强化学习笔记(5)-回合策略梯度算法2021-12-05 11:00:10

    以下为阅读《强化学习:原理与python实现》这本书第七章的学习笔记。 在之前学习到的强度学习方法中,都是通过学习最优价值函数来获得最优策略。现在换一个角度来思考,我们可以通过用含参函数来近似最优策略,并在迭代中更新参数值,这就是策略梯度算法。 用函数近似方法估计最优策略的

  • 对抗攻击常见方法汇总2021-12-03 11:30:19

    算法Attack or Defense 介绍 FGSMWrite AttackFGSM:1、原理详细: https://www.cnblogs.com/tangweijqxx/p/10615950.html2、参数解释详细: https://blog.csdn.net/qq_35414569/article/details/80770121激活函数学习链接: https://liam.page/2018/04/17/zero-cente

  • 随机森林是如何停止训练的?2021-12-03 09:59:37

    随机森林是一种机器学习算法,可以用于分类与回归,其他关于随机森林的知识可以百度。 现在实现机器学习算法有很多方便的渠道,比如python的sklearn包还有c++的shark,具体实现方式也可以百度。 随机森林是如何停止训练的。我一直以为随机森林和神经网络的训练类似,给定迭代次数,然后

  • 方向导数和梯度的区别2021-11-29 16:04:20

    方 向 导 数 和 梯 度 的

  • pytorch深度学习:随机梯度下降y=w*x2021-11-29 15:01:45

    数据:x_data = [1.0, 2.0, 3.0], y_data = [2.0, 4.0, 6.0] 模型选择:y = x * w 代码如下: x_data = [1.0, 2.0, 3.0] y_data = [2.0, 4.0, 6.0] w = 1.0 def forward(x): return x * w def loss(x, y): y_pred = forward(x) return (y_pred - y) ** 2 def gradi

  • 机器学习[2] 梯度下降算法2021-11-28 21:32:53

    梯度下降算法 2.多个参数时多项式回归2.正态方程 2.多个参数时多项式回归 我们可以通过将每个输入值都设置在大致相同的范围内来加快梯度下降的速度。这是因为θ在小范围内会迅速下降,而在大范围内会缓慢下降,因此当变量非常不均匀时,会无效率地振荡到最佳状态。 防止这

  • 西瓜书第五章——神经网络2021-11-28 11:32:05

    西瓜书第五章——神经网络 前言一、感知机1.1、感知机模型1.1.1、M-P神经元模型1.1.2、神经元激活函数1.1.3、感知机模型 1.2、感知机策略1.3、感知机学习算法 二、神经网络(NN,neural network)2.1、误差逆传播算法(BP算法)2.2、BP算法的工作流程2.3、局部最小问题 总结 前言

  • 逻辑回归_吴恩达2021-11-27 21:03:23

    线性回归做分类不太理想    新增最右边额外的红色点,会改变原来的线性回归的拟合直线从洋红改变到蓝色直线,运用原来的数据标准,分类出现了错误,使得新的拟合直线更糟糕    而且分类问题通常只有0和1,但是线性回归会得出小于0或者大于1的值  就很奇怪,但是下面的逻辑回归值一定在

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有