ICode9

精准搜索请尝试: 精确搜索
  • 深度学习面试题汇总2020-12-08 14:02:50

    1. 反向传播算法推导 2. 激活函数主要使用哪一些函数? sigmoid函数softmax函数Relu函数Gelu函数Elu函数Tanh函数 ——————————————————————————— 3.Relu函数可导吗?如果不可导,用什么解决? Relu函数在零点不可导,Relu的函数曲线如下图所示。可导的定义是

  • 对单隐层ReLU神经网络输入样本将参数空间划分为抽象单元格后损失函数全局特性的讨论2020-11-29 17:05:31

    单元格的划分   对于单隐层ReLU神经网络,考虑ReLU函数可以引入非光滑性的性质,通过输入的样本向量与网络权值参数向量的点积后是否被ReLU函数所激活,进而可以将激活与不激活的位置抽象为空间的不同区域——单元格。输入的样本向量,可以作为网络参数空间的法向量。则有,若干个样

  • 使用torch加载模型时出现字典键对应不起来的问题2020-11-25 12:33:11

    问题描述: RuntimeError: Error(s) in loading state_dict for Model: Missing key(s) in state_dict: “MLP.3.weight”, “MLP.3.bias”, “MLP.6.weight”, “MLP.6.bias”. Unexpected key(s) in state_dict: “MLP.2.weight”, “MLP.2.bias”, “MLP.4.weight”, “MLP.

  • Faster-RCNN中nn.Sequential(*list(vgg.classifier._modules.values())[:-1])的理解2020-11-24 22:02:01

    Faster-RCNN中nn.Sequential(*list(vgg.classifier._modules.values())[:-1])的理解 原博:https://blog.csdn.net/a1103688841/article/details/89383215 先总结一下,self.RCNN_base = nn.Sequential(*list(vgg.features._modules.values())[:-1]),详解如下: vgg是已经构建好的vg

  • 语义分割之ENet, LinkNet2020-10-26 15:31:26

    作业内容: 1:文字回答:简述实时分割算法常用思想 实时分割要在保证分割准确性不会过低的前提下, 尽可能减少参数,压缩模型,因此实时网络对硬件设备的要求不高且省时。 实时分割算法常用思想有: 1)替换主网络: ResNet101或ResNet50替换为ResNet34或ResNet18 2)减少通道数:避免出现2048,1024等过

  • HybridSN+2D SENet2020-08-15 19:35:23

    1、在HybridSN模块中添加注意力机制: class_num = 16 rate = 16 # SENet论文中建议rate=sqrt(256)=16 class HybridSN(nn.Module): def __init__(self): super(HybridSN, self).__init__() self.conv1 = nn.Conv3d(1, 8, kernel_size=(7, 3, 3), stride=1, padding=0)

  • HybridSN尝试加入SENet与dropout的一些坑2020-08-14 23:31:17

    尝试在HybridSN 高光谱分类网络卷积层后加入SENet模块,代码如下: class SELayer(nn.Module): def __init__(self, channel, reduction=16): super(SELayer, self).__init__() self.avg_pool = nn.AdaptiveAvgPool2d(1) self.fc = nn.Sequential(

  • 梯度消失和解决方案2020-07-17 22:03:34

    引自:http://www.mamicode.com/info-detail-2716063.html 累乘中一个梯度小于1,那么不断累乘,这个值会越来越小,梯度衰减很大,迅速接近0。在神经网络中是离输出层近的参数,梯度越大,远的参数,梯度越接近0。根本原因是sigmoid函数的缺陷。 方法: 1、好的初始化方法,逐层预训练,后向传播微调。

  • 什么是GoogleNet?什么是Inception?GoogleNet结构详解(2014年)2020-05-20 19:54:09

    googleNet是2014年的ILSVRC的冠军模型,GoogleNet做了更大胆的网络上的尝试,而不是像vgg继承了lenet以及alexnet的一切框架。GoogleNet虽然有22层,但是参数量只有AlexNet的1/12 GoogleNet论文指出获得高质量模型最保险的做法就是增加模型的深度,或者是它的宽度,但是一般情况下,更深和更宽

  • 图像理解(Image Captioning)(1)CNN部分2020-05-19 12:54:12

    目录一、 应用领域二、 原理三、使用的环境与数据集3.1. 环境3.2. 数据集四、网络模型4.1 理想⽹络模型4.1.1 CNN网络模型五、实现步骤总体步骤:5.1 使⽤keras创建VGG16定义的CNN⽹络结构5.2 提取图像特征 一、 应用领域 图像搜索 安全监控 鉴黄 二、 原理 CNN(卷积神经⽹络

  • 深度残差网络+自适应参数化ReLU激活函数(调参记录17)2020-05-19 10:56:46

    在调参记录16的基础上,增加了两个残差模块,继续测试其在Cifar10数据集上的效果。 自适应参数化ReLU激活函数的基本原理如下: Keras程序: #!/usr/bin/env python3 # -*- coding: utf-8 -*- """ Created on Tue Apr 14 04:17:45 2020 Implemented using TensorFlow 1.0.1 and Keras 2.

  • 深度残差网络+自适应参数化ReLU激活函数(调参记录12)2020-05-18 23:05:43

    本文在调参记录10的基础上,在数据增强部分添加了zoom_range = 0.2,将训练迭代次数增加到5000个epoch,批量大小改成了625,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。 Adaptively Parametric ReLU(APReLU)激活函数的原理如下: Keras程序: 1 #!/usr/bin/env

  • 深度残差网络+自适应参数化ReLU激活函数(调参记录10)2020-05-18 22:51:21

    本文在调参记录9的基础上,在数据增强部分添加了shear_range = 30,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。 Keras里ImageDataGenerator的用法见如下网址:https://fairyonice.github.io/Learn-about-ImageDataGenerator.html 深度残差网络+自适应参数

  • 常用激活函数(激励函数)理解与总结2020-05-03 09:00:32

    引言 学习神经网络的时候我们总是听到激活函数这个词,而且很多资料都会提到常用的激活函数,比如Sigmoid函数、tanh函数、Relu函数。那么我们就来详细了解下激活函数方方面面的知识。本文的内容包括几个部分: 什么是激活函数? 激活函数的用途(为什么需要激活函数)? 有哪些激活函数,都有什

  • 我的Densenet笔记2020-04-24 22:56:12

    两个基本块    dense_block【宽高不变,通道数改变】:一个遍历block块(以121为例,传来blocks块[6,12,24,16])                         进入conv_block结构,其中生长率为32,每个稠密层输出的特征维度是32                                    BN(标准化)+r

  • 人脸检测和识别以及检测中loss学习 - 14 - VarGFaceNet: An Efficient Variable Group Convolutional Neural Network for2020-03-27 18:02:37

    根据https://github.com/zma-c-137/VarGFaceNet中mxnet的版本的模型 写出pytorch的版本的模型   varGFaceNet.py: #coding:utf-8 import torch.nn as nn import torch def l2_norm(input,axis=1): norm = torch.norm(input,2,axis,True) output = torch.div(input, nor

  • 激活函数2020-03-24 09:03:11

    Sigmoid函数       大于5(或小于-5)的部分其梯度接近0,会导致在误差反向传播过程中导数处于该区域的误差很难甚至无法传递到前层,进而导致整个网络无法进行训练。 sigmoid型激活函数值域的均值并非为 0而是全为正,这样的结果实际上并不符合我们对神经网络内数值的期望(均值)应为 0的

  • 现实比理论要复杂2020-03-21 16:58:07

    我们试想一个实际问题,春天到了,我们要买衣服了,同时,作为服装厂商,也要开始发布新的衣服了,如果你作为一个服装厂商的技术顾问,请你分析出什么样的衣服属于今年的流行趋势,你会怎么做? 首先,作为技术宅男的你,我不认为你会对流行元素有那么多的关注,不会去看什么巴黎时装周,你能做的就是根据各

  • CNN-VGG162020-03-17 13:42:44

    一张图片如何作为输入? 如下图,彩色图像有RGB三个色值通道,分别表示红、绿、蓝,每个通道内的像素可以用一个二维数组表示,数值代表0-255之间的像素值。假设一张900*600的彩色的图片,计算机里面可以用  (900*600*3)的数组表示。 什么是卷积 卷积过程是基于一个小矩阵,也就是卷积核,在

  • 多层感知机2020-03-04 17:57:54

    多层感知机 激活函数及其选择 1.relu(大于0梯度为1,小于等于0梯度为0) 2.sigmoid(可以将元素值变为0到1) 3.tanh(可以将元素值变为-1到1) 激活函数的选择 relu只能用于隐藏层 sigmoid,tanh存在数值过大或者过小梯度消失的问题,但sigmoid函数用于二分类效果好

  • 【42】残差网络2020-02-27 21:04:49

    残差网络(Residual Networks (ResNets)) 非常非常深的神经网络是很难训练的,非常非常深的神经网络是很难训练的,非常非常深的神经网络是很难训练的,记住这句话! 因为存在梯度消失和梯度爆炸问题。 这节课我们学习跳跃连接(Skip connection),它可以从某一层网络层获取激活,然后迅速反馈给另外

  • 常见的激活函数2020-02-24 21:53:18

    目录简述简述内容详解密度聚类层次聚类总结一、激活函数作用激活函数的主要作用是提供网络的非线性建模能力。如果没有激活函数,那么该网络仅能够表达线性映射,此时即便有再多的隐藏层,其整个网络跟单层神经网络也是等价的。因此也可以认为,只有加入了激活函数之后,深度神经网络才具备

  • nnU-Net2020-02-24 21:05:26

    文章地址:nnU-Net: Breaking the Spell on Successful Medical Image Segmentation 代码:code 概述 针对的问题: 许多提出的语义分割方法未能在它们被证明的实验之外进行推广。 贡献: 作者提出了一个自动适应任何给定新数据集的框架。 作者在本文中提出了no-new-Net(nnU-Ne

  • 深度学习的基础概念2020-02-07 11:38:37

    激活函数 深度学习的进展得益于人们对激活函数的更深理解 传统机器学习流行采用sigmoid激活函数, 这个函数可解释性好,数学性质好,但是在深度学习领域随着网络层的增加会导致梯度消失的问题。 TVM的激活函数类似 max(x-b), 实践上计算更快。 深度学习流行的relu, max(x) 形状和

  • 学习笔记_卷积神经网络2020-02-05 21:00:28

    卷积神经网络 一、绪论 1.卷积神经网络的应用 无处不在的卷积神经网络 基本应用 分类 检索 检测 分割 人脸识别(face recognition) 人物表情识别 图像生成 图像风格转化 自动驾驶 2.传统神经网络vs卷积神经网络 深度学习三部曲 Step1: Neural Network(搭建神经网络结构) Step2: Cost Fun

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有