ICode9

精准搜索请尝试: 精确搜索
  • PyTorch 深度学习实践 (4)构建线性回归模型2021-03-18 20:58:11

    b站视频链接https://www.bilibili.com/video/BV1Y7411d7Ys?p=5 利用pytorch进行深度学习分为以下4个步骤 准备数据集(用dataloader和dataset)设计模型(设计 计算图)构建损失函数和优化器(也就是loss函数和optimizer)开始循环训练(前馈算损失,反馈算梯度,更新权重) 广播机制 关于Line

  • Pytorch中的学习率衰减及其用法2021-03-17 09:32:27

      学习率衰减是一个非常有效的炼丹技巧之一,在神经网络的训练过程中,当accuracy出现震荡或loss不再下降时,进行适当的学习率衰减是一个行之有效的手段,很多时候能明显提高accuracy。 Pytorch中有两种学习率调整(衰减)方法: 使用库函数进行调整; 手动调整。 1. 使用库函数进行调整: Pyt

  • 作业记录 WEEK7(上)2021-03-14 13:32:31

    Target 将CBAM加入到Face embedding model训练出一个可识别戴口罩人脸的人脸识别模型。 综合来说,就是在week06作业的基础上,在训练集中添加戴口罩的数据集。 Steps 数据集 训练数据集选择:VGGFACE2 的训练集 或者 VGGFACE2的测试集 - 下载完成vggfrace2_test.zip解压缩,得到vgg

  • 【深度学习01】Fashion MNIST数据集分类模型笔记2021-03-08 20:32:37

    0 前置 We start by building a simple image classifier using MLPs. 如果之前Anaconda没有安装过tensorflow模块,就会报错: No module named ‘tensorflow’ 原因:未安装相应的包 解决方式:输入以下代码安装即可,过程可能会花几分钟 pip install tensorflow 调用常用的module

  • TypeError: fit() got an unexpected keyword argument 'nb_epoch'2021-02-22 09:36:14

    model.fit(trainX, trainY, nb_epoch=200, batch_size=2, verbose=2)   It's just epochs now. nb_epoch was deprecated years ago.   把 nb_epoch 修改 为 epochs

  • How to determine the correct number of epoch during neural network training? 如何确定Epoch2021-02-15 10:03:54

      The number of epochs is not that significant. More important is the the validation and training error. As long as it keeps dropping training should continue. For instance, if the validation error starts increasing that might be a indication of overfitti

  • KafkaBroker 简析2021-02-14 13:01:05

    Kafka 依赖 Zookeeper 来维护集群成员的信息: Kafka 使用 Zookeeper 的临时节点来选举 controller Zookeeper 在 broker 加入集群或退出集群时通知 controller controller 负责在 broker 加入或离开集群时进行分区 leader 选举 broker 管理 每个 broker 都有一个唯一标识符 ID

  • 深度学习笔记(3)神经网络,学习率,激活函数,损失函数2021-02-13 22:35:00

    神经网络(NN)的复杂度 空间复杂度: 计算神经网络的层数时只统计有运算能力的层,输入层仅仅起到将数据传输进来的作用,没有涉及到运算,所以统计神经网络层数时不算输入层 输入层和输出层之间所有层都叫做隐藏层 层数 = 隐藏层的层数 + 1个输出层 总参数个数 = 总w个数 + 总b个数 时间复杂

  • 从零写CRNN文字识别 —— (6)训练2021-02-12 14:06:08

    前言 完整代码已经上传github:https://github.com/xmy0916/pytorch_crnn 训练 训练部分的代码逻辑如下: for epoch in range(total_epoch): for data in dataloader: 数据输入模型(前馈) 根据输出计算loss loss反馈更新网络参数 if epoch % eval_epoch == 0:

  • zookeeper 核心原理2021-02-12 13:36:12

    zookeeper 核心原理 1、了解zookeeper的设计 2、zookeeper集群角色 3、深入分析ZAB协议 4、从源码层面分析leader选举的实现过程 5、关于zookeeper的数据存储 6、关于zookeeper数据存储   zookeeper 的由来       zookeeper的设计 防止单点故障 集群方案(leader、follower)、

  • KafkaBroker 简析2021-02-11 16:35:24

    Kafka 依赖 Zookeeper 来维护集群成员的信息: Kafka 使用 Zookeeper 的临时节点来选举 controller Zookeeper 在 broker 加入集群或退出集群时通知 controller controller 负责在 broker 加入或离开集群时进行分区 leader 选举 broker 管理 每个 broker 都有一个唯一标识符 ID

  • 学习笔记13:微调模型2021-02-02 11:03:35

    resnet预训练模型 resnet模型与之前笔记中的vgg模型不同,需要我们直接覆盖掉最后的全连接层 先看一下resnet模型的结构: 我们需要先将所有的参数都设置成requires_grad = False 然后再重新定义fc层,并覆盖掉原来的。 重新定义的fc层的requires_grad默认为True for p in model.parame

  • (五)使用CNN实现多分类的情感分析2021-01-19 21:00:17

    文章目录 准备数据搭建模型训练模型用户输入完整代码 在之前的所有笔记中,我们已经对只有两个类别的数据集(正面或负面)进行了情感分析。当我们只有两个类时,我们的输出可以是一个标量,限制在0和1之间,表示示例属于哪个类。当我们有两个以上的分类时,我们的输出必须是一个

  • Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional Networks学习总结2021-01-18 19:31:48

    作者及单位: 发表会议: KDD2019( 数据挖掘顶会 ) 数据集: PPI 、 Reddit 、 Amazon2M( 本文创建,比之前最大的 Reddit 数据集大 5 倍以上 )   GCN 存在的问题:   • 基于 Full-batch gradient descent • 在每一个 epoch 中对所有节点进行计算,每个 ep

  • 2021-01-16 Your input ran out of data; interrupting training. Make sure that your dataset or generat2021-01-16 17:02:02

    Your input ran out of data; interrupting training. Make sure that your dataset or generator can generate at least `steps_per_epoch * epochs` batches (in this case, 3000 batches). You may need to use the repeat() function when building your dataset. histor

  • 3.GitHub pytorch sentiment analysis(Fast版)2021-01-05 20:02:44

    文章目录 FastTest model1.准备数据构建模型构建FastText实例查看有多少模型参数将预训练词向量传进模型中的embedding layer层将unknown 和 pad token 的词向量初始化为0设置优化器定义损失函数定义求精确度的函数定义训练函数定义评估函数定义计算耗时的函数训练模型测试

  • 论文解析 -- LeanStore: In-Memory Data Management Beyond Main Memory2021-01-05 15:04:27

     INTRODUCTION Managing large data sets has always been the raison d’ˆetre (a French expression commonly used in English, meaning "reason for being" or "reason to be") for database systems.    (Buffer Pool的好处和过高的overhead) Traditional sy

  • torch 保存模型2021-01-04 16:01:46

    保存 state = {'net': model.state_dict(), 'optimizer':optimizer.state_dict(), 'epoch': epoch} torch.save(state, 'dir.pth') 加载 checkpoint = torch.load(dir) model.load_state_dict(checkpoint['net']) opt

  • keras的ModelCheckpoint保存最佳epoch准确率2021-01-01 17:58:02

    今天下午捣鼓一下午捣鼓得头疼,然后睡了一觉再弄弄弄出来了。可能是现在版本更新太快,网上有些东西少有人写或者没有人写。 刚开始调用checkpoint根本没有覆盖也没有执行,跟摆在那好看似的。后来改了一下filepath filepath="model_{epoch:02d}-{val_acc:.2f}.hdf5" 好家伙开始报

  • Keras tutorial - Emotion Detection in Images of Faces2021-01-01 17:01:06

    所需文件: 本地下载 Keras tutorial - Emotion Detection in Images of Faces Welcome to the first assignment of week 2. In this assignment, you will: Learn to use Keras, a high-level neural networks API (programming framework), written in Python and capable of

  • PostgreSQL 9.2 日期运算2020-12-31 13:37:07

    #利用CAST 函数将字符串转为TIMESTAMP类型 SELECT CAST('2018-01-31 15:49:15' AS TIMESTAMP) #利用EXTRACT函数提取时间戳 用法 EXTRACT(关健字 FROM 日期或时间型字段) 返回的类型为interval类型 可以直接参与运算 SELECT EXTRACT(epoch FROM CAST( '2018-01-31 15:49:15' AS TIM

  • 生成对抗网络(Generative Adversarial Networks, GAN)2020-12-27 09:33:22

      生成对抗网络(Generative Adversarial Networks, GAN)是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的学习方法之一。   GAN 主要包括了两个部分,即生成器 generator 与判别器 discriminator。生成器主要用来学习真实图像分布从而让自身生成的图像更加真实

  • pytorch之inception_v3的实现案例2020-12-16 20:35:12

    更多python教程请到: 菜鸟教程www.piaodoo.com 人人影视www.sfkyty.com 16影视www.591319.com 星辰影院www.591319.com 如下所示: from __future__ import print_function from __future__ import division import torch import torch.nn as nn import torch.optim as optim im

  • 迅速掌握Python中的Hook钩子函数2020-12-12 15:32:42

    1. 什么是Hook 经常会听到钩子函数(hook function)这个概念,最近在看目标检测开源框架mmdetection,里面也出现大量Hook的编程方式,那到底什么是hook?hook的作用是什么? what is hook ?钩子hook,顾名思义,可以理解是一个挂钩,作用是有需要的时候挂一个东西上去。具体的解释是:钩子函数是把

  • pytorch 断点续训练2020-12-05 22:33:27

    checkpoint = torch.load('.pth') net.load_state_dict(checkpoint['net']) criterion_mse = torch.nn.MSELoss().to(cfg.device) criterion_L1 = L1Loss() optimizer = torch.optim.Adam([paras for paras in net.parameters() if para

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有