ICode9

精准搜索请尝试: 精确搜索
  • 【PyTorch】使用笔记2020-07-09 10:40:05

     检查使用的GPU的索引 torch.cuda.is_available()   cuda是否可用; torch.cuda.device_count()   返回gpu数量; torch.cuda.get_device_name(0)  返回gpu名字,设备索引默认从0开始; torch.cuda.current_device()  返回当前设备索引; 如果使用GPU时,出现找不到cudnn可用

  • 112020-07-08 17:35:34

    面试职位:cv算法工程师 深兰科技   第一次电面: 问: 看你的简历,你在你们公司还是呆了蛮久的,为什么现在有其他想法了呢? 问: 哦,了解,那你先简单叙述一下你现在的项目组主要是做什么的,然后在这里面你做过哪些? 问: 那你还是目标检测和场景分割做的比较多一些,那你能不能说一下

  • [Python图像处理八七.图像腐蚀和图像膨胀2020-07-05 16:34:35

    图像腐蚀 1.基础理论 形态学转换主要针对的是二值图像(0/1)图像类似于领域被蚕食,将图像中的高亮区域白色部分进行缩减细化,其运行结果图比原图的高亮区域更小。主要包括两个输入对对象: 二值图像,卷积核(卷积核是腐蚀中的关键数组,采用numpy库组成)卷积核的中心点逐个像素扫描原始图像。

  • 通俗易懂地解释卷积2020-07-04 22:45:31

      不推荐用“反转/翻转/反褶/对称”等解释卷积。好好的信号为什么要翻转?导致学生难以理解卷积的物理意义。这个其实非常简单的概念,国内的大多数教材却没有讲透。 直接看图,不信看不懂。以离散信号为例,连续信号同理。 已知   已知   下面通过演示求的过程,揭示卷积的物理意义。

  • 卷积,池化过程代码理解之----Lenet52020-07-01 10:08:44

                   

  • Learning Conditioned Graph Structures for Interpretable Visual Question Answering论文解读2020-06-30 21:42:39

    1. 背景 2. 方法概述 2.1 computing model inputs 2.2 Graph learner 2.3 Spatial Graph Convolutions 2.4 Prediction layers 3. 实验 4. 总结 1. 背景 最近的计算机视觉工作一直在探索更高层次的图像表示,特别是使用对象检测器和基于图的结构来更好地理解语义和空间图像

  • CVPR2020:点云分析中三维图形卷积网络中可变形核的学习2020-06-29 09:51:39

    CVPR2020:点云分析中三维图形卷积网络中可变形核的学习 Convolution in the Cloud: Learning Deformable Kernels in 3D Graph Convolution Networks for Point Cloud Analysis 论文地址: https://openaccess.thecvf.com/content_CVPR_2020/papers/Lin_Convolution_in_the_Cloud_Lea

  • 【论文笔记】Pyramidal Convolution: Rethinking Convolutional Neural Networks for Visual Recognition2020-06-23 21:52:25

    地址:https://arxiv.org/pdf/2006.11538.pdf github:https://github.com/iduta/pyconv   目前的卷积神经网络普遍使用3×3的卷积神经网络,通过堆叠3×3的卷积核和下采样层,会在减少图像的大小的同时增加感受野,使用小尺度的卷积核存在两个问题: 实际感受野的大小比理论上的感受野大小

  • 【洛谷6097】【模板】子集卷积2020-06-19 12:54:41

    点此看题面 大致题意: 给定\(a_{0\sim 2^n-1},b_{0\sim 2^n-1}\),求\(c_{0\sim 2^n-1}\)满足\(c_k=\sum_{i|j=k,i\&j=0}a_ib_j\)。 子集卷积 做这个之前,要先了解\(FWT\)。 考虑只要用\(FWT\)做或卷积,就可以轻松满足\(i|j=k\)这一限制,可要同时满足\(i\&j=0\),似乎没法直接搞。 但是,稍

  • 《深入浅出图神经网络:GNN原理解析》2020-06-18 21:07:00

      深入浅出图神经网络:GNN原理解析 https://cread.jd.com/read/startRead.action?bookId=30567027&readType=1   作者:ZZU_chenhao 仅仅是一名普通的研究生而已。 原创 【学习日记】《深入浅出:图神经网络》:第四天---表示学习 表示学习 表示,通俗的理解就是特征。 表

  • 图像复原的神经网络稀疏表示2020-06-15 11:59:53

    图像复原的神经网络稀疏表示 Neural Sparse Representation for Image Restoration paper: https://arxiv.org/abs/2006.04357 code: https://github.com/ychfan/nsr 摘要 受稀疏编码图像恢复模型中稀疏表示的鲁棒性和有效性的启发,研究了深层网络中神经元的稀疏性。方法在结构上

  • 李宏毅深度学习笔记03---CNN 卷积神经网络2020-06-14 15:07:05

    1.CNN总体架构     (1)convolution 卷积 计算方法:对应位置相乘,再将9个格子的乘积结果相加(內积)。 卷积神经网络与全连接的神经网络的区别:   将下图中的6*6的矩阵拉直成一个列向量,则下图中右边部分的4*4矩阵的第一个3是由部分值与filter的3*3矩阵內积而来 <1>卷积神经网络只

  • 15 手写数字识别-小数据集2020-06-10 16:56:24

      补交作业:第九次主成分分析 原因:当时忘记交了。 连接:https://www.cnblogs.com/INacl/p/12788161.html     1.手写数字数据集 from sklearn.datasets import load_digits digits = load_digits()         2.图片数据预处理 x:归一化MinMaxScaler() y:独热编码OneHotEncod

  • 15 手写数字识别-小数据集2020-06-09 17:55:12

    1.手写数字数据集 from sklearn.datasets import load_digits digits = load_digits()     2.图片数据预处理 x:归一化MinMaxScaler() y:独热编码OneHotEncoder()或to_categorical 训练集测试集划分 张量结构               3.设计卷积神经网络结构 绘制模型结构图

  • 卷积神经网络 CNN2020-06-09 09:08:59

    CNN的关键点:局部连接,共享参数,多层。首先回答这样一个问题,为什么我们要学CNN,或者说CNN为什么在很多领域收获成功?还是先拿MNIST来当例子说。MNIST数据结构不清楚的话自行百度。。   我自己实验用两个hidden layer的DNN(全连接深度神经网络)在MNIST上也能取得不错的成绩(98.29%)。

  • 卷积神经网络 --Net in Net2020-06-08 21:53:53

    1 import tensorflow as tf 2 print(tf.__version__) 3 4 5 for gpu in tf.config.experimental.list_physical_devices('GPU'): 6 tf.config.experimental.set_memory_growth(gpu, True) 7 8 9 def nin_block(num_channels, kernel_size, strides,

  • 深度学习-卷积2020-06-07 18:55:22

    1.简述人工智能、机器学习和深度学习三者的联系与区别。 人工智能意味着让计算机以某种方式模仿人类行为。 机器学习是人工智能的一个子集,它包括使计算机能够从数据中找出问题并交付人工智能应用程序的技术。 与此同时,深度学习是机器学习的一个子集,它使计算机能够解决更复杂的问题

  • 14 深度学习-卷积2020-06-07 18:52:00

    1.简述人工智能、机器学习和深度学习三者的联系与区别。 答:人工智能:凡是机器做了人需要动脑才能完成的事情,都可以称为人工智能; 机器学习:如果一个系统能够通过执行某个过程改进它的性能,就是机器学习; 深度学习:深度学习可以看作是特殊的机器学习,我们可以利用深度学习来解决大部分需要

  • 14.深度学习-卷积2020-06-07 13:09:09

    1.简述人工智能、机器学习和深度学习三者的联系与区别。 2. 全连接神经网络与卷积神经网络的联系与区别。 3.理解卷积计算。 以digit0为例,进行手工演算。 from sklearn.datasets import load_digits #小数据集8*8 digits = load_digits() 0 0 5 13 9 1 0 0 0 0 13 15 10 15 5

  • 机器学习14- 深度学习-卷积2020-06-07 12:53:55

    1.简述人工智能、机器学习和深度学习三者的联系与区别。 2. 全连接神经网络与卷积神经网络的联系与区别。 3.理解卷积计算。 以digit0为例,进行手工演算。 选择第一个进行卷积操作:得到6x6的矩阵: from sklearn.datasets import load_digits #小数据集8*8 digits = load_digits()

  • 14.深度学习-卷积2020-06-06 21:56:16

     提交作业 1.简述人工智能、机器学习和深度学习三者的联系与区别。 机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术。用圆图来展示就是,最外的圆是人工智能,里面一个是机器学习,最里面的圆是深度学习。 如下图:   2. 全连接神经网络与卷积神经网络的联系与

  • 数字图像处理笔记2020-06-06 20:51:32

    第四章 数字图像处理的数学基础 一、线性系统理论 1、许多图像处理系统都可以看作是一个线性系统模型。 X(t)  ->  线性系统  ->  y(t) 线性系统满足: (1)     齐次性 (2)     叠加性 1、 线性空间不变系统 X(t-t0)  ->  线性不变系统  ->  y(t-t0) 如果系统响应与输入

  • 数字信号处理实验(二) —— 利用FFT实现快速卷积2020-06-05 15:07:23

    前言 由第一个实验,我们大致知道了,可以通过卷积脉冲响应的方式,得到输出,得到经过一个系统处理过后的输出。如果这个系统是数字滤波器,那么输出就是滤波后的结果 所以 这一节介绍的FFT实现快速卷积意义不小,这意味着DSP的很多应用,比如快速滤波,快速陷波,都是可以实现的。 实践 数字

  • DRConv:旷视提出区域感知动态卷积,多任务性能提升 | CVPR 20202020-06-05 13:52:20

    论文提出DRConv,很好地结合了局部共享的思想并且保持平移不变性,包含两个关键结构,从实验结果来看,DRConv符合设计的预期,在多个任务上都有不错的性能提升   来源:晓飞的算法工程笔记 公众号 论文: Dynamic Region-Aware Convolution 论文地址:https://arxiv.org/pdf/2003.12243.pdf

  • 李宏毅深度学习笔记-CNN卷积神经网络2020-06-04 22:54:57

    图像识别为什么使用CNN? 我们知道CNN常常被用在图像处理上,当然也可以用一般的神经网络做图像处理,input一张图像,把图像表示成里面的像素点,也就是一个很长的向量,output就是类别,1000个类别就是1000个维度。 实际上,我们训练神经网络的时候,知道网络结构里的每一个神经元代表了一个最基

专注分享技术,共同学习,共同进步。侵权联系[admin#icode9.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有