ICode9

精准搜索请尝试: 精确搜索
  • (y_hat.argmax(dim=1) ==lable).sum().cpu().item()2021-10-09 17:33:56

            print(y_hat.argmax(dim=1))         print(y_hat.argmax(dim=1) ==lable)         print((y_hat.argmax(dim=1) ==lable).sum())         print((y_hat.argmax(dim=1) ==lable).sum().cpu())              print((y_ha

  • 因果推断-解决推荐系统公平性的新思路2021-10-09 08:32:00

    论文引入 近年来推荐系统公平性成为新的热点,在所有解决公平性问题的方法中,因果推断显得格外靓眼。我们以论文《Recommendations as treatments: Debiasing learning and evaluation》[1]做为引入,来看看因果推断是怎么应用在推荐系统公平性研究中的。 改论文的思想如下:从因果推断的

  • 深度学习基础:3.反向传播和梯度下降2021-10-05 17:33:06

    动态计算图 计算图可以用来表示两个变量之间的关系。例如,构建 y = x 2 y=x^2 y=x2,则可

  • 样式迁移---在网络搭建好之后,训练的是图片2021-10-05 12:34:25

    基于CNN的样式迁移 $$$$ pretrained_net = torchvision.models.vgg19(pretrained=True) style_layers, content_layers = [0, 5, 10, 19, 28], [25]# 样式(局部全局都有) 内容(取上层) net = nn.Sequential(*[pretrained_net.features[i] for i in rang

  • 机器学习中的数学——常用概率分布(十一):狄利克雷分布(Dirichlet分布)2021-10-04 19:06:36

    狄利克雷分布是关于一组 d d d个连续变量 x i ∈

  • A Three-Stage Self-Training Framework for Semi-Supervised Semantic Segmentation2021-10-04 13:33:35

    论文阅读笔记: A Three-Stage Self-Training Framework for Semi-Supervised Semantic Segmentation 基本信息 \1.标题:A Three-Stage Self-Training Framework for Semi-Supervised Semantic Segmentation \2.作者:\(Rihuan Ke^{*1} , Angelica Aviles-Rivero^{*1} , Saurabh Pandey

  • 深度学习之目标检测(十一)--DETR详解2021-09-26 20:03:57

    深度学习之目标检测(十一)-- DETR详解 目录 深度学习之目标检测(十一)-- DETR详解1. 前言2. DETR 框架2.1 CNN Backbone2.2 Transformer Encoder2.3 Transformer Decoder2.4 FFN 3. 二分图匹配和损失函数4. 代码5. 总结 继 Transformer 应用于图像分类后,本章学习 Transform

  • 经典语音降噪方法-谱减法2021-09-24 22:05:16

    谱减法 一、引言二、简单谱减法  2.1 谱减法使用场景  2.2 简单谱减法基本思想  2.3 简单谱减法数学模型  2.4 简单谱减法结果展示 三、经典语音增强方法-过减法  3.1 简单谱减法的缺点  3.2 改进后的谱减法-->过减法  3.2 过减法数学公式  3.3 过减法降噪

  • 《动手学深度学习》之线性神经网络2021-09-10 21:59:09

    文章目录 线性回归线性模型损失函数解析解小批量随机梯度下降 softmax回归网络结构softmax运算损失函数对数似然softmax及其导数信息论基础熵交叉熵 总结 线性回归 回归(regression)是指一类为一个或多个自变量与因变量之间关系建模的方法。在自然科学和社会科学领域,回归

  • 变分模态分解(VMD)运算步骤及源码解读2021-09-05 16:31:15

    1. 简述 VMD的目标是将实值输入信号 f f f分解为离散数量的子信号(模态) u k

  • 9灰色预测- 灰色模型GM(1,N)2021-09-05 15:05:05

    灰色预测- 灰色模型GM(1,N)    上篇博客说到了 G M ( 1 , 1 )

  • XGBoost实例(三)2021-09-04 21:57:48

    1. 自定义随时函数 下面的代码自定义了XGBoost的随时函数。XGBoost要求我们在自定义随时函数的时候,给出其一阶导函数和二阶导函数的值的表达式。同时,XGBoost也允许使用者给出自定义的评价函数,用以评价训练出来的模型的性能。 import xgboost as xgb import numpy as np # 1

  • BCE和CE交叉熵损失函数的区别2021-08-25 11:29:45

    BCE和CE的区别 首先需要说明的是PyTorch里面的BCELoss和CrossEntropyLoss都是交叉熵,数学本质上是没有区别的,区别在于应用中的细节。 BCE用于二分类,CE用于多分类 BCE适用于0/1二分类,计算公式就是 “ -ylog(y^hat) - (1-y)log(1-y^hat) ”,其中y为GT,y_hat为预测值。这样,当gt为0

  • 卫星轨道的估计问题(Matlab)(二):扩展卡尔曼滤波(EKF)对新问题的尝试2021-08-25 00:00:33

    前言 在前面的问题中我们已经考虑到了用微分方程来描述卫星运动轨迹的方法: r ¨ = r

  • Sequence Model - Sequence Models & Attention Mechanism2021-08-23 23:32:02

    Various Sequence To Sequence Architectures Basic Models Sequence to sequence model Image captioning use CNN(AlexNet) first to get a 4096-dimensional vector, feed it to a RNN Picking the Most Likely Sentence translate a French sentence \(x\) to the mo

  • 逻辑回归2021-08-23 01:34:49

    1 假设 模型的输出变量范围始终在 0 和 1 之间。 逻辑回归模型的假设为: \[\hat y = \sigma \left(w^T x + b\right) \]其中: \(x\) 代表特征向量 \(\sigma\) 代表 Sigmoid 函数 \[\sigma \left( z \right)= \frac{1}{1+{{e}^{-z}}} \]对模型理解: \(\hat y\) 的作用是,对于给定的

  • 自适应动态规划(ADP)基础(1)2021-08-21 21:31:22

    1 基础概念 动态规划是利用最优性原理来解决最优和最优控制问题的一个非常有用的工具。最优性原则可以表示为:“最优策略具有这样的性质:无论初始状态和初始决策是什么,其余决策都必须构成与第一个决策产生的状态相关的最优策略。” 动态规划有几个方面。人们可以考虑离散时间系统或

  • softmax回归——原理、one-hot编码、结构和运算、交叉熵损失、PyTorch实现2021-08-21 12:32:35

    1. softmax回归是分类问题   回归(Regression)是用于预测某个值为“多少”的问题,如房屋的价格、患者住院的天数等。   分类(Classification)不是问“多少”,而是问“哪一个”,用于预测某个事物属于哪个类别,如该电子邮件是否是垃圾邮件、该图像是猫还是狗、该用户接下来最有可能看哪

  • 卡尔曼滤波2021-08-19 19:32:47

    卡尔曼滤波 在信号与系统里面,我们研究一个系统的特性,通常是通过系统的输入输出来求解系统函数,这样的研究思路相当于将系统当成了一个黑箱,并未对系统本身特性进行建模处理,因此也未将关于系统模型的一些先验知识应用上去。现在我们尝试用另外一种思路来对一个系统进行研究,在此需要引

  • 参数估计2021-08-09 22:31:57

    目录 1  点估计的概念与无偏性2  矩估计及相合性3  最大似然估计与EM算法3.1  最大似然估计(MLE,maximum likelihood estimation)3.2  EM算法(Expectation-maximization algorithm)4  最小方差无偏估计4.1  均方误差(MSE,mean square error)4.2  最小方差无偏估计5  有

  • 《PyTorch深度学习实践》 课堂笔记 Lesson6 使用PyTorch实现Logistic回归2021-08-03 21:04:14

    文章目录 1.交叉熵2.线性回归和Logistic回归的区别3.实现过程3.1源代码3.2训练结果 1.交叉熵 若存在两个分布 P D 1

  • 逻辑回归原理及代码实现2021-08-02 22:58:15

    文章目录 逻辑回归原理逻辑回归的主要参数逻辑回归的流程逻辑回归的损失函数梯度下降算法基于链式法则的梯度计算向量化实现梯度计算 逻辑回归代码实现获取二分类数据定义初始化模块定义损失函数及梯度定义梯度下降算法定义预测模块定义逻辑回归模型运行模型 总结 逻辑回

  • 卡尔曼滤波公式推导(2)2021-08-01 13:29:55

    上一篇文章从概率密度函数的角度推导了卡尔曼滤波公式(卡尔曼滤波公式推导(1)),接下来从矩阵的最小二乘法的角度来推导。 在预测和更新阶段分别能得到两个近似状态向量真实值的值,记为 x ^

  • softmax回归的从零开始实现2021-07-27 20:00:56

    一、创建数据集 从Fashion-MNIST数据集中引入创建数据,并设置数据迭代器的批量大小为256 import torch from IPython import display from d2l import torch as d2l #batch_size=256,表明随机读取256张图片 batch_size = 256 # 返回训练集和测试集的迭代器 # load_data_fashion

  • 深度学习笔记(1-1)2021-07-27 09:32:48

    第一周 1.什么是深度学习 深度学习指的是训练神经网络 神经网络是啥? 比如做一个房价预测,输入一个房子的面积x,通过一个神经元(neuron),输出一个房价y 大点的神经网络就是把这些神经元组合起来 修正线性单元,即ReLU(Rectified linear unit),修正是指取不小于0的值 监督学习 输入一些x,得

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有