ICode9

精准搜索请尝试: 精确搜索
  • 生成对抗网络基础(GAN)2019-10-27 20:43:05

      残差网络基础 

  • Rich Model for Steganalysis of Color Images2019-10-24 12:02:54

    文章目录Abstract1. Introduction2. Common Core of Experiments3. Rich Model for Steganalysis of Color Images4. 实验5. Conclusion Abstract 在这篇文章中提出了一种对于Spatial rich model的扩展,附加特征由RGB三个通道的三维共现形成,他们的作用是捕捉颜色通道之间的

  • R语言 方差稳定化变换与线性变换 《回归分析与线性统计模型》page962019-10-22 11:04:35

    > rm(list = ls())> A=read.csv("data96.csv")> A Y N1 11 0.09502 7 0.19203 7 0.07504 19 0.20785 9 0.13826 4 0.05407 3 0.12928 1 0.05039 3 0.0629> attach(A) #将数据A的列名直接赋为变量   plot(N,Y) #绘制散点图lm.air=lm(Y~N) #线性回归summary(lm

  • Gradient Boosting Decision Tree2019-10-20 16:03:05

    GBDT中的树是回归树(不是分类树),GBDT用来做回归预测,调整后也可以用于分类。当采用平方误差损失函数时,每一棵回归树学习的是之前所有树的结论和残差,拟合得到一个当前的残差回归树,残差的意义如公式:残差 = 真实值 - 预测值 。 https://zhuanlan.zhihu.com/p/30654833 分类树与回归树的

  • 深度残差收缩网络:(五)实验验证2019-09-29 23:03:56

      实验部分将所提出的两种深度残差收缩网络,即“通道之间共享阈值的深度残差收缩网络(Deep Residual Shrinkage Networks with Channel-shared Thresholds,简称DRSN-CS)”,和“逐通道不同阈值的深度残差收缩网络(Deep Residual Shrinkage Networks with Channel-wise Thresholds,简

  • 基于神经网络的三维重建入门学习笔记12019-09-17 10:07:29

    一、对空洞(扩张)卷积的理解 空洞卷积:首先是诞生背景,在图像分割领域,图像输入到CNN(典型的网络比如FCN)中,FCN先像传统的CNN那样对图像做卷积再pooling,降低图像尺寸的同时增大感受野,但是由于图像分割预测是pixel-wise的输出,所以要将pooling后较小的图像尺寸upsampling到原始的图

  • R语言用于线性回归的稳健方差估计2019-09-04 16:00:33

     原文链接:http://tecdat.cn/?p=6274   在这篇文章中,我们将看看如何在实践中使用R  。为了说明,我们首先从线性回归模型中模拟一些简单数据,其中残差方差随着协变量的增加而急剧增加: n < - 100 x < - rnorm(n)residual_sd < - exp(x)y < - 2 * x + residual_sd * rnorm(n) 该代码

  • matlab拉普拉斯残差金字塔2019-09-01 21:41:06

    原文链接:https://www.cnblogs.com/tiandsp/archive/2013/06/07/3123755.html 转自:https://www.cnblogs.com/tiandsp/archive/2013/06/07/3123755.html 过去研究过高斯金字塔,不过今天看来,当时似乎搞错了,金字塔上下层应该是采样的关系,而不是缩放的关系,而且

  • TCN时间卷积网络——解决LSTM的并发问题2019-08-19 12:00:09

    TCN是指时间卷积网络,一种新型的可以用来解决时间序列预测的算法。在这一两年中已有多篇论文提出,但是普遍认为下篇论文是TCN的开端。 论文名称: An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling 作者:Shaojie Bai 1 J. Zico Kolte

  • 随机森林,GBDT,XGBoost的对比2019-08-05 19:01:21

    原文链接:https://blog.csdn.net/yingfengfeixiang/article/details/80210145 随机森林 RF RandomForest   随机森林的集成学习方法是bagging ,但是和bagging 不同的是bagging只使用bootstrap有放回的采样样本,但随机森林即随机采样样本,也随机选择特征,因

  • 深度学习之——防止过拟合的方法2019-07-31 18:00:56

    原文链接:https://blog.csdn.net/sunflower_sara/article/details/81159155 1、过拟合定义: 在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出来的网络过拟合了训练集,对训练集外的数据却不work。模型越复杂,越容易过拟

  • (第三~七章)CV之各种不熟悉但比较重要的笔记2019-07-30 09:56:38

      解析: skip connection 就是一种跳跃式传递。在ResNet中引入了一种叫residual network残差网络结构,其和普通的CNN的区别在于从输入源直接向输出源多连接了一条传递线,这是一种identity mapping,也就是所谓的恒等映射,用来进行残差计算。这叫是shortcut connection,也叫skip connec

  • [Attention Is All You Need]论文笔记2019-07-28 23:03:34

    主流的序列到序列模型都是基于含有encoder和decoder的复杂的循环或者卷积网络。而性能最好的模型在encoder和decoder之间加了attentnion机制。本文提出一种新的网络结构,摒弃了循环和卷积网络,仅基于attention机制。 self-attention是一种attention机制,它是在单个序列中计算每个位

  • 2019/7/14(下午)学习内容【ESPCN、VDSR、DRCN、RED、DRRN、LapSRN】2019-07-14 19:00:25

    ESPCN (Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network, CVPR2016) 作者在本文中介绍到,像SRCNN那样的方法,由于需要将低分辨率图像通过上采样插值得到与高分辨率图像相同大小的尺寸,再输入到网络中,这意味着要

  • 典型的卷积神经网络2019-07-10 16:01:38

    介绍几种广泛使用的典型深层卷积神经网络。 (1)LeNet-5          (详解 https://blog.csdn.net/happyorg/article/details/78274066)          基于LeNet-5 的手写数字识别系统在90 年代被美国很多银行使用,用来识别支票上面的手写数字。LeNet-5 的网络结构如图5.10所

  • Resnet以及相应的变体2019-07-04 21:50:42

    在过去的几年里,ResNet网络可以说是一篇开创新的工作,ResNet使得训练更深的网络成为可能。除了图像分类任务以外,在目标检测以及人脸识别等领域发光发热。 AlexNet架构只有5层卷积,而VGG和GoogleNet分别有19和22层。网络层数越深,拟合能力就越强,但是网络的深度不能通过层与层的直接叠加

  • AlexNet,VGG,GoogleNet,ResNet2019-06-26 16:00:42

    AlexNet:     VGGNet:  用3x3的小的卷积核代替大的卷积核,让网络只关注相邻的像素   3x3的感受野与7x7的感受野相同,但是需要更深的网络 这样使得参数更少 大多数内存占用在靠前的卷积层,大部分的参数在后面的全连接层     GoogleNet: Inception模块:设计了一个局部网络

  • 卷积神经网络的网络结构——ResNet2019-06-21 11:50:47

                                                    ResNet由微软研究院的kaiming He等4名华人提出,通过使用Residual Unit成功训练152层深的神经网络,在ILSVRC 2015比赛中获得了冠军,取得3.57%的top5错误率,同时参数量却比VGGNet低

  • 参数辨识之递推算法、遗忘算法、变遗忘因子算法、变P算法2019-05-29 20:53:49

    第一次实验利用5组数据,根据LS算法得出 θ 和P,此第6组开始递推。 [u]=[xlsread('2019作业二时变系统.xlsx','B2:B401')]; [y]=[xlsread('2019作业二时变系统.xlsx','C2:C401')]; [ym]=[xlsread('2019作业二时变系统.xlsx','C2:C21')]; %计算初值所用的输出值ym [um]=[x

  • 变种神经网络的典型代表:深度残差网络2019-05-27 16:51:22

    编者按:本书节选自图书《白话深度学习与TensorFlow》,本书本着“平民”起点,从“零”开始的初衷,介绍深度学习的技术与技巧,逐层铺垫,把微积分、梯度等知识重点化整为零,把学习曲线最大程度地拉平,让读者有良好的代入感和亲近感。 随着人们对于神经网络技术的不断研究和尝试,每年都会诞

  • 多因子回归检验中的NeweyWest整2019-05-06 18:50:16

    转 多因子回归检验中的 Newey-West 调整 作者:石川,量信投资创始合伙人,清华大学学士、硕士,麻省理工学院博士;精通各种概率模型和统计方法,擅长不确定性随机系统的建模及优化。知乎专栏:https://zhuanlan.zhihu.com/mitcshi。未经授权,严禁转载。 摘要:Newey-West 调整是计量经济学中

  • Semantic Segmentation on Remotely Sensed Images Using an Enhanced Global Convolutional Network with2019-05-05 13:37:43

    创新点: 1、在GCN(global convolutional network)基础上,把他的backbone替换成更多层的,使其适应中分辨率影像,resnet50,101,152 2、利用 channel attention 来挑选出最具有识别力的特征 3、迁移学习来解决数据稀缺的问题,用了不同分辨率训练好的数据 目标数据集: landsat-8 和 ISPRS Vaih

  • ResNet——Deep Residual Learning for Image Recognition2019-04-22 13:40:59

    1. 摘要 更深的神经网络通常更难训练,作者提出了一个残差学习的框架,使得比过去深许多的的网络训连起来也很容易。 在 ImageNet 数据集上,作者设计的网络达到了 152 层,是 VGG-19 的 8 倍,但却有着更低的复杂性。通过集成学习模型最终取得了 3.57% 的错误率,获得了 ILSVRC 2015 比赛的

  • GBDT 梯度提升决策树简述2019-04-06 15:40:28

    首先明确一点,gbdt 无论用于分类还是回归一直都是使用的CART 回归树。不会因为我们所选择的任务是分类任务就选用分类树,这里面的核心是因为gbdt 每轮的训练是在上一轮的训练的残差基础之上进行训练的。这里的残差就是当前模型的负梯度值 。这个要求每轮迭代的时候,弱分类器的输出的结

  • Tensorflow学习:ResNet代码(详细剖析)2019-03-28 17:49:17

      https://blog.csdn.net/superman_xxx/article/details/65452735 https://blog.csdn.net/qq_29893385/article/details/81207203 https://blog.csdn.net/zzc15806/article/details/83540661 https://blog.csdn.net/chaipp0607/article/details/75577305 https://github.com/c

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有