ICode9

精准搜索请尝试: 精确搜索
  • RK1808:CircleDet(人流检测)从pytorch到RK1808计算棒的部署2021-04-06 22:59:11

    RK1808:从pytorch到RK1808计算棒的部署 RK1808 RK1808 http://t.rock-chips.com/wiki.php?mod=view&id=64 选用的用开发模式应为被动模式,即存在上位机。上位机初始化时将模型传送给RK1808棒,然后由上位机读取视频数据后,通过usb传输给1808,计算结果后再传回。 查看插入的计算

  • 【深度学习入门到精通系列】2D Unet&3D Unet辨析2021-04-03 16:31:48

    文章目录 1 2D U-net 2 3D U-net 3 总结 3.1 从数据格式角度 3.2 从模型角度 1 2D U-net 以全连接卷积神经网络为基础设计的。 创新点:上采样,下采样,U型结构,短接通道(skip connection) Encoder:左半部分,由两个3x3的卷积层(ReLU)+2x2的max polling层(stride=2)反复组成

  • 学习Keras时需要掌握的知识2021-03-22 16:29:45

    学习Keras时需要掌握的知识 本文在《Deep Learning with Python》一书第七章的基础上整理。希望自己能够牢记这些代码,熟记于心,不要每次敲两行查一下OTZ。 文章目录 创建网络结构导包使用Sequential创建基本网络使用函数API创建基本网络创建双输入网络创建多输出网络(多头网

  • Pytorch register_forward_hook()简单用法2021-03-12 19:00:34

    简单来说就是在不改动网络结构的情况下获取网络中间层输出。 比如有个LeNet: import torch import torch.nn as nn import torch.nn.functional as F class LeNet(nn.Module): def __init__(self): super(LeNet, self).__init__() self.conv1 = nn.Conv

  • 活函数(激励函数)理解与总结2021-03-11 12:01:19

    引言   学习神经网络的时候我们总是听到激活函数这个词,常用的激活函数,比如Sigmoid函数、tanh函数、Relu函数。 Question:   什么是激活函数?  为什么需要激活函数?  有哪些激活函数,都有什么性质和特点?  应用中如何选择合适的激活函数? 什么是激活函数?   首先要了解神经网

  • 车辆行为克隆2021-03-01 12:33:48

    网络搭建训练步骤: 数据收集 网络搭建 网络训练 模型测试 一、 总体思路 1.1 模型体系结构 我的网络模型中的卷积层,前三层卷积神经网络的stride为 \({2}\times{2}\),kernel为\({5}\times{5}\),而后两层卷积神经网络的stride为 \({1}\times{1}\),kernel为 \({3}\times{3}\)。我跟随

  • 神经网络量化入门--激活函数2021-02-28 18:01:06

    本文首发于公众号「AI小男孩」,欢迎大伙过来砸场! 在之前的文章中提到过可以把 ReLU 合并到 Conv 中加速量化推理,当时只是用一个例子简单介绍一下过程,逻辑上存在一些漏洞。本文打算从数学上深入剖析一下其中的原理,并进一步扩展到其他激活函数,看看在网络量化中激活函数一般是怎么处理

  • 深度学习领域最常用的10个激活函数,一文详解数学原理及优缺点2021-02-28 09:04:55

        激活函数是神经网络模型重要的组成部分,本文作者Sukanya Bag从激活函数的数学原理出发,详解了十种激活函数的优缺点。   激活函数(Activation Function)是一种添加到人工神经网络中的函数,旨在帮助网络学习数据中的复杂模式。类似于人类大脑中基于神经元的模型,激活函数最终决

  • Tensorflow 2.0 搭建神经网络(局部)2021-02-27 20:34:32

    前向传播   Sequential 容器封装成一个网络大类对象,调用大类的前向计算函数一次即可完成所有层的前向计算。 # 导入常用网络层 layers from tensorflow.keras import layers,Sequential # 隐藏层 1 fc1 = layers.Dense(256, activation=tf.nn.relu) # 隐藏层 2 fc2 = layers.D

  • 【转载】深度学习基础知识(一):神经网络与随机梯度下降SGD2021-02-24 15:32:00

    作者:量子位 链接:https://www.zhihu.com/question/264189719/answer/649129090 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 下面的这张动图演示,乍看就像就像是在复杂地形中作战的沙盘推演,其实揭示的是随机梯度下降(SGD)算法的本质。   让小

  • Python 扩展 Op2021-02-16 06:32:04

    Python 扩展 Op 注意 :本文涉及的 Python Kernel 仅在 gcc 4.8.5 编译环境下充分测试,进一步的完善计划见 Issue 3951。 背景介绍 OneFlow 将各种对于数据的处理都抽象成了算子(operator),简称 op。 op 是作用在输入 tensor 上的操作,并将操作的结果写到输出 tensor 上。OneFlow 内

  • PyTorch全连接ReLU网络2021-02-07 06:01:04

    PyTorch全连接ReLU网络 1.PyTorch的核心是两个主要特征: 一个n维张量,类似于numpy,但可以在GPU上运行 搭建和训练神经网络时的自动微分/求导机制 本文将使用全连接的ReLU网络作为运行示例。该网络将有一个单一的隐藏层,并将使用梯度下降训练,通过最小化网络输出和真正结果的欧几里得距

  • 这可能是关于Pytorch底层算子扩展最详细的总结了!2021-02-05 22:01:05

    1、前言​ ​一般情况下,pytorch推荐使用python层的前端语言来构建新的算子。因为pytorch在python层的api已经足够丰富,可以构造出很多自定义的算子。但是有时候出于一些其他方面的考虑,会需要增加底层算子。例如有时候对性能要求很高,python不满足需求,又或者是需要链接其他的动态库

  • Tensorflow2.0 用 tf.keras.applacations 迁移学习时如何在导入 imagenet 权重的同时保留分类层2021-02-03 12:57:59

    项目说明 在 Tensorflow2.0之tf.keras.applacations迁移学习 一文中,我们演示了如何将迁移学习层和自定义的分类层结合起来使用,但这里有个问题,就是当你再次打印结合后的模型的每层的名称时,会出现如下情况: import tensorflow as tf mobile = tf.keras.applications.MobileNet(

  • 基于Pytorch的深度学习 —— 非线性激活函数2021-01-28 22:32:00

    文章目录 作用 Sigmoid tanh ReLU Leaky ReLU SoftPlus 开发环境 作用 非线性激活函数获取输入,并对其进行数学变换后生成输出; 非线性激活函数为神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,可以应用到非线性模型中;如果不使用,则只能适合线性模型。 Sigmoid  

  • TensorFlow2.0学习笔记 2.3:激活函数2021-01-22 12:03:26

    激活函数 这一张图是我们上一讲实现鸢尾花分类时,用到的神经元模型 和它对应的前向传播公式 从公式可以看出,即使有多层神经元首尾相连,构成深层神经网络,依旧是线性组合,模型的表达力不够 这张图是1943年提出的MP模型 比上面的简化模型多了一个非线性函数,这个非线性函数,叫做激活

  • PyTorch - 21 - CNN Forward方法 - PyTorch深度学习实现2021-01-12 16:32:10

    PyTorch - 21 - CNN Forward方法 - PyTorch深度学习实现 Neural Network Programming Series (Recap)Reviewing The NetworkImplementing The `forward() `MethodInput Layer #1Hidden Convolutional Layers: Layers #2 And #3Hidden Linear Layers: Layers #4 And #5Outpu

  • 另辟新径:用数学极限的眼光看神经网络中的激活函数2021-01-08 21:33:55

    一、数学先验知识:     二、激活函数推导 a)、Relu         b)、Leaky Relu     c)、ELU 用公式(1-1)中e^x-1代替Leaky Relu 中x<0时的x,则有         d)、其他激活函数     对这个式子进行化简,看看其等价于什么?当然,前提默认是在当

  • 梯度消失和梯度爆炸2020-12-30 12:33:27

    梯度消失和梯度爆炸,简单来说,就是因为激活函数sigmoid导致的,输入值过大或过小导致sigmoid函数趋于0和1,对应的求导趋近于0,而且sigmoid的导数在(0,1/4)之间,这就导致如果初始化W为0-1之间的比较小的值,通过过多的层数之后,梯度下降的时候,慢慢就会出现梯度消失。如果W初始化为较大的值,通

  • Kaggle猫狗大战——基于Pytorch的CNN网络分类:CNN网络、调参(3)2020-12-25 19:59:07

    Kaggle猫狗大战——基于Pytorch的CNN网络分类:CNN网络、调参(3) CNN网络是整个项目的核心部分,我准备分两部分讲,首先是Pytorch中的CNN网络代码的结构,便于大家之后修改,形成自己的网络。另一个是测试一些常见的优秀网络,比如VGG、ResNet等等。 CNN:卷积神经网络 要详细讲卷积神经网络

  • 激活函数2020-12-24 10:34:18

    使输出不再是x的线性关系,增强神经网络的表达力。 优秀的激活函数:非线性,可微性,单调性,近似恒等性。 输出范围:有限值,基于梯度,无限值,调小学习率。 sigmoid函数:求导后为0-0.25。易造成梯度消失,输出非0均值收敛慢,幂运算复杂训练时间长。 Tanh函数:易造成梯度消失,幂运算复杂训练时间长。 R

  • Tensorflow中Sequential model2020-12-14 10:03:47

    sequential模型适用于简单堆叠网络层(a plain stack of layers),及每一层只有一个输入和一个输出: 几种创建sequential模型的方法: # 1. model = keras.Sequential( [ layers.Dense(2, activation="relu", name="layer1"), layers.Dense(3, activation="relu

  • 深度学习中的激活函数2020-12-13 22:29:07

    深度学习中的激活函数 sigmod函数 relu函数 tanh函数 leaky relu函数 softmax函数 1)分子:通过指数函数,将实数输出映射到零到正无穷。 2)分母:将所有结果相加,进行归一化。 softmax函数求导

  • 自定义层or网络2020-12-11 23:37:15

    目录Outlinekeras.SequentialLayer/ModelMyDenseMyModel Outline keras.Sequential keras.layers.Layer keras.Model keras.Sequential model.trainable_variables # 管理参数 model.call() network = Sequential([ layers.Dense(256, acitvaiton='relu

  • 全连接层2020-12-11 23:04:27

    目录OutlineRecapNeural NetworkHere comes Deep LearningHerosFully connected layerMulti-Layers Outline Matmul Neural Network Deep Learning Multi-Layer Recap out = f(X@W + b) out = relut(X@W + b) Neural Network h = relut(X@W + b) h0=relu(

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有