ICode9

精准搜索请尝试: 精确搜索
  • 经典论文系列 | 目标检测--CornerNet & 又名 anchor boxes的缺陷2021-07-14 10:01:18

    ​ 前言: 目标检测的预测框经过了滑动窗口、selective search、RPN、anchor based等一系列生成方法的发展,到18年开始,开始流行anchor free系列,CornerNet算不上第一篇anchor free的论文,但anchor freee的流行却是从CornerNet开始的,其中体现的一些思想仍值得学习。 看过公众号以往论文

  • 3D卷积,代码实现2021-07-14 06:31:59

    3D卷积,代码实现 三维卷积:理解+用例-发现 在图像卷积神经网络内核中,包含3D卷积及其在3D MNIST数据集上的实现。   什么是卷积?   从数学上讲,卷积是一种积分函数,表示一个函数g在另一个函数f上移动时的重叠量。   直觉地说,卷积就像一个混合器,将一个函数与另一个函数混合在一起,在保

  • 深入浅出图神经网络 第5章 图信号处理与图卷积神经网络 读书笔记2021-07-14 02:01:18

    前面废点话: 终于!来到了GNN最相关的内容!前面四章来说都是一些预备知识,或者说是介绍性的认识的东西,其实和GNN的关系不是特别大。但从这一章开始一上来就是GNN最核心的东西:图信号处理。这部分其实非常关键,但大部分人学的时候可能都会忽视这一点,认为自己可以直接进入GCN的部分,这是错

  • 卷积神经网络CNN 常用模型2021-07-13 17:04:46

    一、CNN 简介 CNN的精华是:三概念两核心,这里做个简要的概要性介绍。 1、CNN 两核心——卷积和池化 (1)卷积 主要起到作用是抽取特征,使网络具有一定转移不变性,也有一定降维的作用。概述:设定一个n行m列的卷积窗口,采用的relu(elu,leakyrelu)做为激活函数函数,对输入X进行卷积操作。 注

  • [论文阅读] Exploring Dense Context for Salient Object Detection2021-07-12 20:32:21

    论文地址:https://dx.doi.org/10.1109/TCSVT.2021.3069848 发表于:TCSVT 2021 Abstract 上下文在显著目标检测中起着重要作用。高级上下文描述了不同物体/物体不同部分之间的关系,因此有助于发现显著目标的具体位置;而低级上下文可以为显著目标边界的划分提供精细的信息。然而,现

  • 经典网络结构总结--MobileNet系列2021-07-12 17:58:57

    经典网络结构总结--MobileNet系列 MobileNet mobilenet是Google提出的。 优点:体积小,计算量小,适用于移动设备的卷积神经网络。 可以实现分类/目标检测/语义分割; 小型化: 卷积核分解,使用1xN和Nx1的卷积核替换NxN的卷积核。 采用bottleneck结构 ,以SqueezeNet为代表 以低精度浮点数

  • Involution(附对Involution的思考):港科大、字节跳动、北大提出“内卷”神经网络算子,在CV三大任务上提点明显2021-07-12 10:30:51

    该原创内容首发于GaintPandaCV,转载请获得授权并标明出处 【写在前面】 在被Transformer结构刷榜之前,CNN一直都是CV任务的标配。卷积有两个基本性质,分别是空间不变性 (spatial-agnostic)和通道特异性 (channel-specific)。空间不变性使得卷积能够在所有位置共享参数,并充分利用

  • Reverse attention for salient object detection阅读笔记2021-07-11 22:29:50

    ECCV 2018 Shuhan Chen, Xiuli Tan, Ben Wang, Xuelong Hu 论文地址 一、简介 为解决显著性目标检测任务存在的输出分辨率低和模型参数量过大的问题,本文提出了一种精确而紧凑的深度网络。 首先,使用残差网络学习侧向输出残差特征来进行显著性细化,其次,我们提出了反向注意,以自上

  • 海思AI芯片(HI35xx):tensorflow转caffemodel之caffe和tensoflow结构参数的差异2021-07-11 16:58:54

    摘要: 要把自己的模型进行移植,之前是后端的移植,最近前端也提了需求,前端一般都是用海思芯片(海思HI3516DV300),只支持caffe,所以为了先测试时间得把tf的模型转成caffemodel。这里是将tf1.x转为caffemode,后续补全darknet转为caffemode 一、转换环节的注意点: BN层由于tensoflow和caffe

  • YOLO系列优化策略与电力巡检案例2021-07-11 16:02:04

    目录 前言 一、PP-YOLO深度解析 YOLOv3及优化模型 PP-YOLO深度解析 PP-YOLO模型结构 二、YOLO优化策略详解 0. 目标检测模型优化方法 1. YOLOv3-DarkNet53优化 2. PP-YOLO精度提升历程表 3. 数据增强 4. 网络结构 5. 网络结构-- 特征提取优化 6. 学习策略 7. 训练策略 8. 后处

  • 对ONNX模型进行BN和卷积层的融合2021-07-11 15:55:42

    import onnx import os from onnx import optimizer # Preprocessing: load the model contains two transposes. # model_path = os.path.join('resources', 'two_transposes.onnx') # original_model = onnx.load(model_path) original_model = onnx.l

  • 深度学习模型压缩加速2021-07-11 15:53:35

    目录 前言 深度学习模型压缩加速原理和方法 为什么需要模型压缩和加速? 深度学习模型压缩的方法 前端压缩的方法 1. 知识蒸馏: 2. 紧凑的模型结构设计 3. 剪枝和共享 后端压缩的方法 低秩近似 量化和二进制 深度学习模型优化加速方法 优化工具与库:TensorRT(Nvidia) 改变网络结

  • 深度学习花朵识别系统的设计与实现2021-07-11 10:59:02

    摘要:该项目是基于Keras的VGG16模型微调实现的深度学习花朵识别检测系统,使用Python语言中的cv2和numpy库对图像进行预处理,使用keras的ImageDataGenerator进行数据增强,采用Pyqt5实现功能的可视化,方便用户对图片进行检测。在实验过程中,发现当数据集较小,很难在一个新的网络结构上训

  • 医学图像分割——U-Net解读与个人笔记2021-07-10 22:06:11

    最近开始尝试医疗影像分割的任务,先从之前的Unet开始阅读,记录一部分笔记以供回顾。 论文地址:http://www.arxiv.org/pdf/1505.04597.pdf 摘要 作者提出了一个相对当时来说全新的网络,Unet。Unet主要由contracting path(特征提取通路),symmetric expanding path(合成扩张通路)组成,运

  • Halcon的texture_laws算子自我研究2021-07-10 20:02:19

    本篇博文来自博主Imageshop,打赏或想要查阅更多内容可以移步至Imageshop。   转载自:https://www.cnblogs.com/Imageshop/p/13490534.html   侵删   Halcon里有个texture_laws 算子,最近实现了下,记录下相关细节。        Halcon的文档里对该算子是这样描述的:        

  • 卷积神经网络基础知识点总结2021-07-10 14:30:42

    卷积神经网络 卷积层 鲁棒性: 也就是当数据发生变化或者其他的原因,算法的效率稳定。 卷积的特性: 拥有局部感知机制,因为每个卷积核的权值是不变的所以具有权值共享的特点,目的就是进行图像特征提取。 上图的参数大大的减少了,这就是权值共享的优势。 卷积的深度就是卷积

  • UTNet: A Hybrid Transformer Architecture for Medical Image Segmentation2021-07-09 22:04:27

    UTNet: A Hybrid Transformer Architecture for Medical Image Segmentation UTNet:一种用于医学图像分割的混合transformer结构 论文链接:UTNet: A Hybrid Transformer Architecture for Medical Image Segmentation Abstract transformer架构已经在许多自然语言处理任务中取

  • 2021-07-092021-07-09 17:00:51

    语义分割综述 Cethy 2018-09-11 14:55:15 56866 收藏 290 分类专栏: 三维计算视觉 深度学习 图像处理 语义分割 太优秀了,收藏用!转载自:https://www.cnblogs.com/Jie-Liang/archive/2017/06/29/6902375.html 综述论文翻译:A Review on Deep Lea

  • 最新深度学习与PyTorch入门实战教程2021-07-09 09:57:50

    深度学习与PyTorch入门实战教程 ┣━━1.深度学习框架介绍 ┃ ┗━━1.lesson1-PyTorch介绍.mp4 ┣━━2.开发环境准备 ┃ ┗━━2.lesson2-开发环境准备.mp4 ┣━━3.初见深度学习 ┃ ┣━━3.lesson3-初探Linear Regression案例-1.mp4 ┃ ┣━━4.lesson3-初探Linear Regressi

  • 图神经网络task72021-07-08 16:04:25

    超大规模数据集类的创建 图神经网络的新基准Benchmarking Graph Neural Networks 与图形无关的NN(MLP)在小型数据集上的表现与GNN相同 对于较大的数据集,GNN改进了与图无关的NN 最简单形式的GNN表现较差 各向同性GNN架构在原始GCN上有所改进。GraphSage证明了在图卷积层中使用中

  • PyTorch学习6--GAN2021-07-08 10:03:52

    生成式对抗网络(GAN, Generative Adversarial Networks ) 一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型通过框架中(至少)两个模块:生成模型(Generative Model)和判别模型(Discriminative Model)的互相博弈学习产生相当好的输出。原始 GAN 理论中,并不要求 G

  • 关于卷积神网络,以及模型训练自己的一些理解2021-07-07 21:33:08

    评价神经网络好坏的一个重要一句就是: 以最少的代价使神经网络获得最好的准确率。 关于特征:特征就是对己而言,特征是某些突出性质的表现,于他而言,特征是区分事物的关键,所以,当我们要对事物进行类或者识别,我们实际上就是提取‘特征’,通过特征的表现进行判断。 特征选择(feature selectio

  • 【算法随记二】线卷积积分及其在图像增强和特效方面的应用(一)2021-07-07 20:02:03

    本篇博文来自博主Imageshop,打赏或想要查阅更多内容可以移步至Imageshop。 转载自:https://www.cnblogs.com/Imageshop/p/10797177.html  侵删  LIC (Line Integral Convolution) is a well-known texture synthesis technique proposed by Cabral and Leedom [33] at Lawre

  • 狄利克雷卷积总结2021-07-07 19:02:58

    狄利克雷卷积总结 积性函数 常见的积性函数: φ , μ , σ ,

  • 什么是AlexNet?2021-07-07 16:51:45

           对于CNN(卷积神经网络)最早可以追溯到1986年BP算法的提出,然后1989年LeCun将其用到多层神经网络中,直到1998年LeCun提出LeNet-5模型,神经网络的雏形完成。第一个典型的CNN就是LeNet5网络结构,但是今天我们要讲的主角是AlexNet也就是文章《ImageNet Classification with Deep C

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有