ICode9

精准搜索请尝试: 精确搜索
  • F.relu() 与 nn.ReLU() 的区别2021-07-29 14:59:51

    在pytorch中,激活函数的使用方法有两种,分别是: 第一种: import torch.nn.functional as F ''' out = F.relu(input) 123 第二种: import torch.nn as nn ''' nn.RuLU() 123 其实这两种方法都是使用relu激活,只是使用的场景不一样,F.relu()是函数调用,一般使用

  • 【模型推理】T4 上商汤 OpenPPL vs TensorRT7 vs TensorRT8 测评2021-07-23 22:00:28

    ​  本文对商汤 OpenPPL 和 英伟达 TensorRT7、TensorRT8 在 T4 平台上对一些经典网络进行了性能测试对比。 文章目录 1、小试牛刀2、测评姿势3、数据分析 ​  商汤 OpenPPL 传送:点击到达OpenPPL ​  英伟达 TensorRT 传送:点击到达TensorRT ​  我的测试环境:NVIDIA

  • 卷积核越大,参数量增长不大,但是计算量是恐怖的2021-07-23 10:31:38

    计算了同样conv3x3、conv5x5、conv7x7、conv9x9和conv11x11,在224x224x3的RGB图上(设置pad=1,stride=4,output_channel=96)做卷积,卷积层的参数规模和得到的feature map的大小: 看来大卷积核带来的参数量并不大(卷积核参数+卷积后的feature map参数,不同kernel大小这二者加和都是30万的参

  • pytorch 网络模型可视化(七):PlotNeuralNet2021-07-17 17:03:15

    引导 PlotNeuralNet 介绍1. 安装 Texlive2. 下载 PlotNeuralNet 工具包3. 运行自带测试代码4. 运行自定义测试代码5. 结语 PlotNeuralNet 介绍 PlotNeuralNet 是 github 上做神经网络可视化的一个工具,利用 python 将 .py 文件中定义的网络结构转换成 .tex 文件,最后通过

  • 深度学习网络模型的轻量化方法2021-07-17 11:32:53

    深度学习网络的轻量化 由于大部分的深度神经网络模型的参数量很大,无法满足直接部署到移动端的条件,因此在不严重影响模型性能的前提下对模型进行压缩加速,来减少网络参数量和计算复杂度,提升运算能力。 一、深度可分离卷积 了解深度可分离卷积之前,我们先看一下常规的卷积操作:对于一张

  • 没有Attention的Transformer依然是顶流!!!2021-07-12 08:01:02

    https://mp.weixin.qq.com/s/k9g_KmWuNsbM-iKYco7gwA   本文主要介绍了Attention Free Transformer(AFT),同时作者还引入了AFT-local和AFT-Conv,这两个模型在保持全局连通性的同时,利用了局域性和空间权重共享的思想。通过实验验证了AFT在所有benchmarks上具有竞争性能的同时具有

  • 海思AI芯片(HI35xx):tensorflow转caffemodel之caffe和tensoflow结构参数的差异2021-07-11 16:58:54

    摘要: 要把自己的模型进行移植,之前是后端的移植,最近前端也提了需求,前端一般都是用海思芯片(海思HI3516DV300),只支持caffe,所以为了先测试时间得把tf的模型转成caffemodel。这里是将tf1.x转为caffemode,后续补全darknet转为caffemode 一、转换环节的注意点: BN层由于tensoflow和caffe

  • 前向推理,合并Conv层与BN层2021-07-11 15:53:48

    目录 前言 合并Conv层与BN层 合并原因 为什么需要batch normalization 合并的数学原理 caffe版本的实现(python,嵌入式端) Darknet版本的实现(C/C++,服务端) 今儿再补充一篇之前一直想写,没写的文章。下面会陆续写下聚集好久没写的博文。 前言 为何想到这,为何将caffe模型的合并,在

  • 可分离卷积2021-07-06 16:05:28

    先看一下nn.Conv2d()代码: torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros') 输入:(N,C_in,H_in,W_in) 输出:(N,C_out,H_out,W_out) dilation:空洞卷积率,控制卷积膨胀间隔 groups:分组卷积来控制

  • uuUNet 网络结构生成代码部分解读2021-06-21 21:31:53

    uuUNet 网络结构生成代码部分解读 文章目录 前言一、网络结构生成位置二、参数及参数含义1.函数构造函数2.参数含义及设置 总结 前言 nnUNet 网络结构生成代码解读,研究参数含义。 一、网络结构生成位置 二、参数及参数含义 1.函数构造函数 代码如下(示例): def __init_

  • 论文笔记系列-AutoFPN2021-06-07 10:03:01

    原论文:Auto-FPN: Automatic Network Architecture Adaptation for Object Detection Beyond Classification 之前的AutoML都是应用在图像分类或者语言模型上,AutoFPN成功地将这技术应用到了目标检测任务上。 传统two-stage目标检测网络结构 在介绍AutoFPN之前,首先大致介绍一下two-

  • 论文笔记系列-AutoFPN2021-06-06 20:02:57

    论文笔记系列-AutoFPN 论文笔记object detection目标检测FPNautomlAutoFPN 原论文:Auto-FPN: Automatic Network Architecture Adaptation for Object Detection Beyond Classification 之前的AutoML都是应用在图像分类或者语言模型上,AutoFPN成功地将这技术应用到了目标检测任

  • RepVGG: Making VGG-style ConvNets Great Again阅读分享(keras实现)2021-06-06 12:34:44

    RepVGG: Making VGG-style ConvNets Great Again paper:https://arxiv.org/pdf/2101.03697.pdf code:https://github.com/DingXiaoH/RepVGG 摘要 提出了一个简单而强大的卷积神经网络结构,它具有一个类似VGG的推理时间体,只由3×3卷积和ReLU组成,而训练时间模型有一个多分支拓扑。

  • Pytorch学习2021-05-23 09:57:19

    torch.nn.Conv2d 初始化模型:conv = torch.nn.Conv2d(1, 3, kernel_size=3, stride=2, padding=1) 第一个参数:表示输入的通道数 第二个参数:表示输出的通道数 第三个参数:表示卷积核大小 第四个参数:表示步幅长度 第五个参数:是否需要padding 调用模型:out = conv(x) x是一个四

  • 物体检测模型RFBNet——一个非常好用的模型。2021-05-08 15:53:50

    RFBNet,是一篇没有公式,通俗易懂,图文并茂,格式优雅的好文,文中提出了RFB,是一个可以集成至其他检测算法的模块,从论文的fig2、3、4、5中也很容易理解,就是受启发于人类视觉感知系统,提出的RFBNet基于SSD的backbone,结合了Inception、虫洞卷积的思想,来尽量模拟人类的视觉感知,最终实验结果也非

  • 语义分割2021-04-23 18:58:03

    语义分割简介 一.定义 首先,我们来将语义分割与其他类似的名词区别开: 图像分类:识别图像中的内容——知道图像是什么物体识别检测:识别图像中的内容以及其位置——知道图像是什么、在哪里(通过的是**边界框**)语义分割:识别图像中存在的内容以及位置(通过像素点) 也就是说,物体识别检

  • self-attention 的 pytorch 实现2021-04-11 16:03:56

    问题 基于条件的卷积GAN 在那些约束较少的类别中生成的图片较好,比如大海,天空等;但是在那些细密纹理,全局结构较强的类别中生成的图片不是很好,如人脸(可能五官不对应),狗(可能狗腿数量有差,或者毛色不协调)。 可能的原因 大部分卷积神经网络都严重依赖于局部感受野,而无法捕捉全局特征。另

  • Mobile-SegNet2021-04-03 22:30:56

    """ Created on 2021/3/15 9:58. @Author: haifei """ from tensorflow.keras.layers import Input, Conv2D, BatchNormalization, Activation from tensorflow.keras.layers import UpSampling2D, ZeroPadding2D, DepthwiseConv2D from tens

  • DO-Conv 涨点模块2021-04-01 14:31:06

    文章目录 0.动机1.传统的卷积和Depthwise卷积2.Depthwise over-parameterized卷积(DO-Conv)3.DO-DConv和DO-GConv4.在视觉任务中使用Depthwise over-parameterized卷积5.总结 DO-Conv无痛涨点:使用over-parameterized卷积层提高CNN性能 DO-Conv: Depthwise Over-paramet

  • 【pytorch】unet网络结构分析及代码实现2021-03-28 13:01:44

    原始论文 U-Net: Convolutional Networks for Biomedical Image Segmentation:点击查看 网络结构 注意事项 论文中进行卷积操作的时候没有用padding,导致卷积后图片尺寸变小。推荐可能是当年padding操作并不流行。我们这里复现的时候用了padding,保持卷积后图片尺寸不变。输

  • TypeError: new() received an invalid combination of arguments - got (float, int, int, int), but expe2021-03-12 18:01:46

    TypeError: new() received an invalid combination of arguments - got (float, int, int, int), but expected one of: * (*, torch.device device) * (torch.Storage storage) * (Tensor other) * (tuple of ints size, *, torch.device device) * (object data, *, t

  • YOLOv5系列(3)——YOLOv5修改网络结构2021-03-07 21:01:26

    文章目录 一、设置网络结构为mobilenet-V2二、添加注意力模块 一、设置网络结构为mobilenet-V2 首先,需要在models/common.py里,实现MobileNetv2的 bottleneck 和 Pwconv。 1、Mobilenetv2的bottleneck: InvertedResidual #mobilenet Bottleneck InvertedResidual clas

  • TVM在ARM GPU上优化移动深度学习2021-03-07 08:32:58

    TVM在ARM GPU上优化移动深度学习 随着深度学习的巨大成功,将深度神经网络部署到移动设备的需求正在迅速增长。与在台式机平台上所做的类似,在移动设备中使用GPU可以提高推理速度和能源效率。但是,大多数现有的深度学习框架都不能很好地支持移动GPU。困难在于移动GPU架构和台式机GPU架

  • conv_general_dilated实现2021-02-14 11:30:55

      参考: https://github.com/DarrenZhang01/TensorFlow_GSoC/blob/2fd360c8b1b8c9106044034f6a8b5c2734db9c3d/tf_jax_stax/tf_conv_general.py 结果应该还不对: """ This file contains a general conv operation for TensorFlow. Zhibo Zhang, 2020.06.06 "&quo

  • YOLO v3 从decode函数看v3如何预测图片中物体的位置2021-02-13 13:00:18

    首先,通过darknet53骨干网络得到大中小三种比例的特征图,图片来自https://zhuanlan.zhihu.com/p/50595699 self.conv_lbbox, self.conv_mbbox, self.conv_sbbox = self.__build_nework(input_data) 以小anchor为例,即下采样3次,feature map大小变为原来的1/8,FPN部分参考https://bl

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有