ICode9

精准搜索请尝试: 精确搜索
  • NLP教程(8) - NLP中的卷积神经网络2022-05-14 07:31:39

    作者:韩信子@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/36 本文地址:http://www.showmeai.tech/article-detail/247 声明:版权所有,转载请联系平台与作者并注明出处 收藏ShowMeAI查看更多精彩内容 本系列为斯坦福CS224n《自然语言处理与深度学习(Natural Language Pr

  • 斯坦福NLP课程 | 第11讲 - NLP中的卷积神经网络2022-05-14 07:31:06

    作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/36 本文地址:http://www.showmeai.tech/article-detail/248 声明:版权所有,转载请联系平台与作者并注明出处 收藏ShowMeAI查看更多精彩内容 ShowMeAI为斯坦福CS224n《自然语言处理与

  • 图聚类到图卷积神经网络(二)2022-05-12 02:32:26

    1、拉普拉斯矩阵的矩阵乘法和特征值的性质 在上一篇文章中,我们介绍了关于图的基础知识,并且介绍了基于拉普拉斯矩阵分解的谱聚类。在本文中我们将集中精力介绍基于图数据的图卷积神经网络。 首先,介绍一下本章节相关的符号系统,对于一个无向无环图\(G=(V,E)\),节点数据为\(V=[x_1,x_2.

  • Conv2d参数详解及复写2022-05-12 02:31:35

    文档注释 def __init__(self, in_channels: int, out_channels: int, kernel_size: tuple[int, ...], stride: tuple[int, ...] = 1, padding: str = 0, dilation: tuple[int, ...] = 1,

  • ResNet网络结构详解与模型的搭建2022-05-09 21:35:25

    ResNet网络结构详解与模型的搭建 ResNet网络是在2015年由微软实验室提出,斩获当年ImageNet竞赛中分类任务第一名,目标检测第一名。获得COCO数据集中目标检测第一名,图像分割第一名。下图是ResNet34层模型的结构简图。 在ResNet网络中有如下几个亮点: (1)提出residual结构(残差结构),并搭建

  • ptorch卷积conv2d2022-05-02 09:01:10

    nn.Conv2d就是pytorch中定义的的一个普通的类,可以很方便的实现二维的卷积,它有五个主要的参数, in_channels(输入的通道数) out_channels(输出的通道数) kernel_size(卷积核的大小) stride(卷积核移动的步长) padding(是否对被卷的张量做填充). 除此以外,还有 dilation:决定是否采用空

  • 【CVPR2022】Lite Vision Transformer with Enhanced Self-Attention2022-05-02 01:31:06

    论文:https://readpaper.com/paper/633541619879256064 代码:https://github.com/Chenglin-Yang/LVT 1、研究动机 尽管ViT模型在各种视觉任务中效果显著,但是目前轻量级的ViT模型在局部区域效果不理想,作者认为:自注意力机制在浅层网络有局限性(Self-attention mechanism is limited

  • [论文] 基于轴向注意多尺度时频卷积网络的语音增强算法2022-04-29 22:01:47

    本文介绍了ICASSP2022 DNS Challenge和AEC Challenge第一名百度的技术方案。该方案提出了一种信号处理-深度学习混合式方法(hybrid method),同时抑制回声、噪声和混响。其中信号处理部分利用线性回声消除算法为深度神经网络提供条件信息(conditional information);而深度学习部分提

  • Few-shot Learning : Siamese Network2022-04-29 18:00:53

    神经网络结构: 1、两张图片(x1、x2)输入卷积神经网络 输出提取的特征向量(h1、h2) 2、对两个特征向量作差 再取向量每个元素的绝对值(z) 3、全连接层处理z向量 输出一个标量(预测相似度) 4、Sigmoid激活函数 输出介于0-1之间的实数     把预设的标签(target = 1)与预测之间的差作为损失函

  • 卷积(convolution)与互相关(cross-correlation)比较2022-04-29 15:31:05

    卷积和互相关在数学定义上是不一样的;   但是,现在大部分的深度学习教程中都把互相关的数学定义,即图像矩阵和卷积核的按位点乘定义为卷积。实际上,这种操作亦应该是互相关(cross-correlation),而卷积需要把卷积核顺时针旋转180度然后再做点乘。   数学定义上:     对E点进行互相关

  • 高斯滤波2022-04-29 15:04:25

    转载:https://blog.csdn.net/sunmc1204953974/article/details/50634652 高斯滤波高斯分布又叫正态分布, 图像滤波之高斯滤波(Gauss filter)概述:高斯滤波:高斯滤波在图像处理概念下,将图像频域处理和时域处理相联系,作为低通滤波器使用,可以将低频能量(比如噪声)滤去,起到图像平滑作用。 高斯

  • 2022统一省选总结2022-04-27 12:32:46

    赛前 集训时状态调整了好久才找到感觉,当时只剩两个星期了,还经常挂分。 开始的好长一段时间是没有好好静下来全情投入的,主要是挂着 QQ 的话容易手痒点一下,这样思路就很容易断,特别是像我这种实力远远没有达到顶尖的选手。 如此长一段时间的收获还是挺大的。 知识点方面: 恶补了之前

  • 2022IEEE TRPMS: 基于可变形U-Net的医学图像分割2022-04-26 15:00:36

    论文访问地址:https://ieeexplore.ieee.org/document/9354863 论文公开代码:https://github.com/SUST-reynole/DefED-Net 基于可变形U-Net的医学图像分割 论文引用信息:T. Lei, R. Wang, Y. Zhang, Y. Wan, C. Liu and A. K. Nandi, "DefED-Net: Deformable Encoder-Decoder Network

  • CRUSE: Convolutional Recurrent U-net for Speech Enhancement2022-04-24 18:31:05

    CRUSE: Convolutional Recurrent U-net for Speech Enhancement 本文是关于TOWARDS EFFICIENT MODELS FOR REAL-TIME DEEP NOISE SUPPRESSION的介绍,作者是Microsoft Research的Sebastian Braun等。相关工作的上下文可以参看博文 概述 本文设计的是基于深度学习的语音增强模型,工

  • 深度学习--在小型图像数据集上使用预训练的卷积神经网络2022-04-23 19:34:51

    文章目录 前言 一、使用预训练网络 二、将VGG16卷积基实例化 三、使用卷积基进行特征提取 1.不使用数据增强的快速特征提取 2.使用数据增强的特征提取 四、微调模型   前言 想要将深度学习应用于小型图像数据集,一种常用且非常高效的方法是使用预训练网络。 预训练网

  • 深度学习--使用数据增强在小型图像数据集上训练一个卷积神经网络2022-04-23 17:32:35

    文章目录 前言 一、数据集 二、训练一个基准模型 二、使用数据增强在小型数据集上训练一个神经网络   前言 深度学习的一个基本特性就是能够独立地在训练数据中找到有趣的特征,无须人为的特征工程,而这只在拥有大量训练样本时才能实现。特别是对于输入样本的维度非常高(

  • TensorFlow笔记(五)卷积神经网络2022-04-22 22:01:39

    第五章 卷积神经网络 本节主要内容:讲解卷积神经网络,利用基础CNN、LeNet、AlexNet、VGGNet、InceptionNet和ResNet实现图像识别。 1 全连接网络回顾 全连接NN特点:每个神经元与前后相邻层的每一个神经元都有连接关系。(可以实现分类和预测) 全连接网络的参数个数为: 如图5-1所示,针对一

  • 转置卷积与插值等不同上采样方法的比较2022-04-21 13:32:18

    很多网络上采样的时候使用的是插值方法,比如最近邻/双线性等,但是在模型部署的时候,部署框架不一定支持插值方法,需要使用替代方法,比如SNPE中ONNX转dlc的时候不支持插值操作。   转置卷积的棋盘效应   参考 1。反卷积和上采样+卷积的区别? 2。deconv-checkerboard; 完

  • 数学/数论专题-学习笔记:狄利克雷卷积2022-04-17 19:00:32

    目录1. 前言2. 一些基础函数3. 积性函数4. 狄利克雷卷积5. 总结6. 参考资料 1. 前言 狄利克雷卷积,是学习与继续探究 \(\mu\) 函数和 \(\varphi\) 函数的重要前提,因为这两个函数中有一些更好用的性质可以从狄利克雷卷积中得到,或者使用狄利克雷卷积更好的证明。 前置知识:一些基础的

  • 卷积神经网络相关(1):卷积神经网络模型的参数量Params和计算量FLOPs简单代码2022-04-17 16:02:45

    文章目录概述一、利用torchstat  1.1 方法  1.2 代码  1.3 输出二、利用ptflops  2.1 方法  2.2 代码  2.3 输出三、利用thop  3.1 方法  3.2 代码  3.3 输出概述  Params:是指网络模型中需要训练的参数总数,理解为参数量。  FLOPs:是指浮点运算次数,s表示复数,

  • 深度学习教程 | 卷积神经网络解读2022-04-14 06:31:15

    作者:韩信子@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/35 本文地址:http://www.showmeai.tech/article-detail/221 声明:版权所有,转载请联系平台与作者并注明出处 收藏ShowMeAI查看更多精彩内容 本系列为吴恩达老师《深度学习专业课程》学习与总结整理所得,对应的课

  • 实录 | MegEngine 大 Kernel 卷积工程优化实践2022-04-13 12:04:26

    本篇整理自 3.19 日 “Large Kernel Makes CNN Great Again” 专题 Meetup 中《MegEngine 大 Kernel 卷积工程优化实践》分享。作者:王彪 | 旷视 MegEngine 异构计算组负责人。 视频回顾 01:10:55 直达 从卷积到矩阵乘 矩阵乘(GEMM)具有计算密度大和易并行等优良特点,传统领域例如芯

  • 数论分块、杜教筛思想、莫比乌斯反演初探2022-04-10 22:34:37

    1 1.对于L,R; 2 找到最大的R,使得[n/l]=[n/r]; 3 n/r>=[n/r]-->r<=n/[n/r] 4 <<=>> 5 r<=n/[n/l]; 6 7 2. 8 [[n/x]/y]=[n/xy] 9 10 3.杜教筛 11 i >= 1 && i <= n j >= 1 && j <= n 12 求它们的互质对数 13 令f(n)=它们的互质对数; 14

  • CNN 卷积神经网络2022-04-07 08:00:34

    LeNet 由 Yann LeCun 发明的著名的 LeNet. 原版中激活函数用的都是 $\mathrm{sigmoid}$, 现在看来用 $\mathrm{ReLU}$ 或 $\mathrm{tanh}$ 也许会更合适.   Fashion - mnist 数据集的识别 数据下载 def gener(): trans = transforms.ToTensor() mnist_train =

  • 2021 Image Compression with Recurrent Neural Network and Generalized Divisive Normalization2022-04-05 20:00:39

    概要 该文提出了两种有效的新编解码块:采用卷积层和Generalized Divisive Normalization(GDN)的分析(analysis)和合成块(synthesis)。该文的网络利用pixel RNN方法进行量化。此外,为了改进整个网络,我们使用LSTM细胞对残差图像进行编码,以减少不必要的信息。 1. 网络结构 下图给出了两

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有