ICode9

精准搜索请尝试: 精确搜索
  • 【717】Keras报错'NoneType' object has no attribute '_inbound_nodes'2022-05-31 22:03:09

    参考:‘NoneType‘ object has no attribute ‘_inbound_nodes‘解决方法汇总 问题原因 出现上图所示是因为在Keras的网络中一切都是要用层来表示,即当网络中一些keras.backend库中的函数如batch_dot、repeat_elements、Subtract、expand_dims函数、当直接使用tensorflow的一些运

  • Conv2d参数详解及复写2022-05-12 02:31:35

    文档注释 def __init__(self, in_channels: int, out_channels: int, kernel_size: tuple[int, ...], stride: tuple[int, ...] = 1, padding: str = 0, dilation: tuple[int, ...] = 1,

  • ptorch卷积conv2d2022-05-02 09:01:10

    nn.Conv2d就是pytorch中定义的的一个普通的类,可以很方便的实现二维的卷积,它有五个主要的参数, in_channels(输入的通道数) out_channels(输出的通道数) kernel_size(卷积核的大小) stride(卷积核移动的步长) padding(是否对被卷的张量做填充). 除此以外,还有 dilation:决定是否采用空

  • 【神经网络】(12) MobileNetV2 代码复现,网络解析,附Tensorflow完整代码2022-03-11 12:32:26

    各位同学好,今天和大家分享一下如何使用 Tensorflow 复现谷歌轻量化神经网络 MobileNetV2。 在上一篇中我介绍了MobileNetV1,探讨了深度可分离卷积,感兴趣的可以看一下:https://blog.csdn.net/dgvv4/article/details/123415708,本节还会继续用到深度可分离卷积的知识。那我们开始吧。

  • 代码分析--模型的创建2022-03-09 10:00:20

    https://blog.csdn.net/Dear_learner/article/details/122920181   构建模型的两大要素: ● 构建子模块(比如网络结构中的卷积层、池化层、激活层、全连接层); ● 拼接子模块(将子模块按照一定的顺序拼接起来,最终得到想到的网络结构)。   LeNet类继承了nn.Module,并且在__init__方法中

  • 代码记忆-卷积参数换算2022-02-15 15:03:57

    机器学习卷积参数换算例子 class DQN(nn.Module): def __init__(self, h, w, outputs): super(DQN, self).__init__() self.conv1 = nn.Conv2d(3, 16, kernel_size=5, stride=2) self.bn1 = nn.BatchNorm2d(16) self.conv2 = nn.Conv2d(16,

  • `nn.ModuleList`和普通list的区别2022-02-09 13:01:45

    ModuleList是特殊的list,其包含的模块会被自动注册,对所有的Module方法都可见。先给结论:如果要用列表组织模型模块,那么强烈建议使用nn.ModuleList。这有什么好处呢?看下面的例子。 import torch.nn as nn from torchsummary import summary class MyNet(nn.Module): def __init

  • tensorflow2实现coordinate attention2022-02-08 13:33:56

    import tensorflow as tf from tensorflow.keras.layers import (Conv2D,AvgPool2D,Input) def CoordAtt(x, reduction = 32): def coord_act(x): tmpx = tf.nn.relu6(x+3) / 6 x = x * tmpx return x x_shape = x.get_shape().as_list()

  • 深度学习笔记017卷积层2022-02-04 23:01:29

    看到一句话,其实卷积层就是一种滤波器,放大它感兴趣的,缩小它不感兴趣的,很有道理。   二维卷积层的数学表达:   这里这个W其实就是kernel,是在这里通过这种方式学习出来的参数,表现出来的就是一个矩阵。b是偏差,通过广播机制作用给Y。      二维交叉和二维卷积,就差一个翻转的关系:

  • 【深度学习pytorch】卷积神经网络2022-02-04 10:33:11

    图像卷积 互相关运算: def corr2d(X, K): h, w = K.shape Y = torch.zeros(X.shape[0]-h+1, X.shape[1]-w+1) for i in range(Y.shape[0]): for j in range(Y.shape[1]): Y[i,j] = (X[i:i+h, j:j+w] * K).sum() return Y 卷积层: class Conv

  • PyTorch搭建小实践2022-01-28 23:59:25

    PyTorch搭建小实践 import torch from torch import nn from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential from torch.utils.tensorboard import SummaryWriter class Model(nn.Module): def __init__(self): super(Model, self).__init

  • Pytorch实战_神经网络的压缩2022-01-16 19:30:57

    1. 神经网络的压缩 对于一些大型的神经网络,它的网络结构是十分复杂的(听说华为的一些神经网络有上亿的神经元组成),我们很难在很小的设备中(比如我们的apple watch)上面将这个这个神经网络放上去。这就要求我们能有能力将神经网络进行压缩,也就是 Networ Compression。 李宏毅老师

  • Anchor Free系列模型102021-12-27 22:58:57

    2021SC@SDUSC CenterNet之loss计算代码解析 网络输出 # heatmap 输出的tensor的通道个数是80,每个通道代表对应类别的heatmap (hm): Sequential( (0): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (1): ReLU(inplace) (2): Conv2d(64, 80, kernel_siz

  • ValueError: Negative dimension size caused by subtracting 5 from 1 for ‘{{node le_net5/conv2d/Conv2D2021-12-26 21:58:14

    ValueError: Negative dimension size caused by subtracting 5 from 1 for '{{node le_net5/conv2d/Conv2D}} = Conv2D[T=DT_FLOAT, data_format="NHWC", dilations=[1, 1, 1, 1], explicit_paddings=[], padding="VALID", strides=[1, 1, 1, 1], u

  • TorchSummary无法载入Dict数据类型解决方法2021-12-18 14:33:00

    前言 torchsummary是一个比较不错的评价网络数据结构的包,但是目前torchsummary只支持网络输入和输出为torch.Tensor类型的网络,在对一些较为复杂的网络模型中,载入的可能并不一定为tensor类型,也有可能是list或者dict类型的数据。 为了可以支持自己的网络结构,为此简单修改了一下torch

  • 八、ResNet的网络结构及其代码实现(花的三分类)2021-12-05 03:00:41

    @目录前文数据生成器+数据部分展示构建ResNet模型首先构建残差学习模块之前的网络结构。接着构建残差学习模块,其中利用循环的方法进行构建完整的ResNet_50网络结构。conv2——xconv3——xconv4——xconv5——xResNet模型构建完成ResNet模型编译ResNet 模型拟合GitHub下载地址: 前文

  • 八、Inception V1的网络结构代码实现2021-12-05 02:31:22

    目录前文数据生成器+数据部分展示Inception V1Inception V1模型编译与拟合GitHub下载地址: 前文 一、Windows系统下安装Tensorflow2.x(2.6) 二、深度学习-读取数据 三、Tensorflow图像处理预算 四、线性回归模型的tensorflow实现 五、深度学习-逻辑回归模型 六、AlexNet实现中文字

  • 七、VGG16+BN(Batch Normalization)实现鸟类数据库分类2021-12-04 15:33:11

    @目录前文加利福尼亚理工学院鸟类数据库分类VGG16+BN版本数据生成器图像显示VGG16+BN模型构建VGG16+BN模型编译与拟合注意:GitHub下载地址: 前文 一、Windows系统下安装Tensorflow2.x(2.6) 二、深度学习-读取数据 三、Tensorflow图像处理预算 四、线性回归模型的tensorflow实现 五、

  • 六、AlexNet实现中文字体识别——隶书和行楷2021-11-28 13:03:37

    @目录前文中文字体识别——隶书和行楷数据生成器图像显示AlexNet模型构建AlexNet模型编译与拟合注意:GitHub下载地址: 前文 一、Windows系统下安装Tensorflow2.x(2.6) 二、深度学习-读取数据 三、Tensorflow图像处理预算 四、线性回归模型的tensorflow实现 五、深度学习-逻辑回归模

  • 七、VGG实现鸟类数据库分类2021-11-28 13:01:47

    目录前文加利福尼亚理工学院鸟类数据库分类数据生成器图像显示VGG模型构建VGG模型编译与拟合注意:GitHub下载地址: 前文 一、Windows系统下安装Tensorflow2.x(2.6) 二、深度学习-读取数据 三、Tensorflow图像处理预算 四、线性回归模型的tensorflow实现 五、深度学习-逻辑回归模型

  • 第8组 Alpha (2/3)2021-11-27 20:31:55

    第8组 Alpha (2/3) 1.过去完成了哪些任务 完成了模型的准备工作、初步分工和和初步训练;训练结果达到了论文中的精度,准确率初步达标 数据集 我们将使用 Pascal Visual Object Classes (VOC) 2007年和2012年的数据集,这一份数据集中包含有20种不同物体,每一个物体都被以下三个属性描

  • pytorch基础(七):卷积层的使用torch.nn.Conv2d和torch.nn.Conv1d2021-11-26 14:34:41

    文章目录 前言一、前置知识二、torch.nn.Conv2d三、torch.nn.Conv1d 前言   本系列主要是对pytorch基础知识学习的一个记录,尽量保持博客的更新进度和自己的学习进度。本人也处于学习阶段,博客中涉及到的知识可能存在某些问题,希望大家批评指正。另外,本博客中的有些内容

  • 学习笔记:动手学深度学习 25 填充和步幅2021-11-10 15:32:03

    超参数:填充 填充在输入周围添加额外的行/列,来控制输出形状的减少量 Python 3.8.8 (default, Apr 13 2021, 15:08:03) [MSC v.1916 64 bit (AMD64)] Type 'copyright', 'credits' or 'license' for more information IPython 7.22.0 -- An enhanced Interactive Python. Type

  • 全文翻译(三) TVM An Automated End-to-End Optimizing Compiler2021-10-28 07:00:07

    全文翻译(三) TVM An Automated End-to-End Optimizing Compiler 5. 自动化优化 考虑到一组丰富的调度原语,剩下的问题是为DL模型的每一层,找到最佳的算子实现。在这里,TVM为与每个层关联的特定输入shape和布局,创建一个专门的算子。这种专门化提供了显著的性能优势(与针对较小shape和布

  • VGG-19架构 pytorch实现2021-10-23 22:35:07

    import torch import torch.nn as nn from torchinfo import summary class VGG19(nn.Module): def __init__(self): super().__init__() self.conv1=nn.Conv2d(3,64,kernel_size=3,padding=1) self.conv2=nn.Conv2d(64,64,kernel_size=3,paddi

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有