ICode9

精准搜索请尝试: 精确搜索
  • 经典网络整理2022-01-22 22:31:21

    经典网络整理 AlexNet # ImageNet Classification with Deep Convolutional Neural Networks import torch.nn as nn import torch class AlexNet(nn.Module): def __init__(self, input_channel, n_classes): super(AlexNet, self).__init__() self.conv1 =

  • 深度学习模型创建数据集代码要点2022-01-19 22:04:16

    加载数据集 三个术语 Epoch  Batch-Size lterations Epoch:对所有的训练数据进行一次正向传播和反向传播 Batch-Size:每次正向和反向传播的训练样本数 Iteration:训练(即权重更新)的次数,每个epoch进行“训练样本数/Batch-Size”次迭代 DataLoader Dataset重写__init__(self, data, l

  • 动手学PyG(三):PyG中的mini-batches2022-01-18 20:34:03

    PyG中的mini-batches 本文主要参考了 PyG英文文档 神经网络通常会采用分批的形式来训练。PyG通过创建稀疏块对角矩阵(由edge_index来定义)的形式来实现小批量图的并行化。而节点属性与训练目标则会在节点维度进行拼接。这种设计使得我们可以将不同规模的图放在同一个ba

  • Spring Batch: 循环多个Step2022-01-18 16:03:40

    在tasklet中返回RepeatStatus.CONTINUABLE只是单纯的重复执行该Step,那么如何重复执行连续的几个的Step? pom.xml <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org

  • 关于Transformer的理解2022-01-17 22:31:47

    结合李宏毅老师机器学习2021——Transformer课程和网上查阅的资料,总结一下对Transformer的理解 Transformer是什么? 从宏观角度来看,Transformer是一种基于Self-Attention机制的Seq2seq模型(序列模型),由编码器和解码器组成(自己总结的)。所以在学习Transformer前,需要先弄明白Seq2se

  • 《动手学深度学习+PyTorch》3.2线性回归的从零开始实现 学习笔记2022-01-15 19:30:18

    文章目录 一、d2lzh_pytorch包二、生成数据集二、画出数据集的散点图三、读取数据四、模型初始化及训练五、训练结果总结 一、d2lzh_pytorch包 《动手学深度学习+PyTorch》配套的GitHub中配套的d2lzh_pytorch包加入IDLE的第三方库中。 二、生成数据集 num_inputs = 2 num

  • PyTorch中在反向传播前要手动将梯度清零2022-01-13 22:34:11

    目的:手动清零可以让使用者自由选择梯度清零的时机,具有更高的灵活性。例如选择训练每N个batch后再进行梯度更新和清零,这相当于将原来的batch_size扩大为N×batch_size.因为原先是每个batch_size训练完后直接更新,而现在变为N个batch_size训练完才更新,相当于将N个batch_size合为

  • [人工智能学习日志]深度学习-股票价格预测案例12022-01-12 19:02:59

    来自股票价格预测bilibili课程。 源自jupyter notebook文件main.ipynb。 代码用tf1书写,使用tf2会因为版本不对应而报错,tf2版本的代码后续再研究。 股票价格预测 1、数据初步处理- 导入库- 导入数据库- 一些数据处理的指令- 数据集分割- 归一化处理数据 2、同步预测-回归-

  • mybatis batch update mysql_mybatis执行批量更新batch update 的方法(oracle,mysql两种)2022-01-12 17:34:30

    oracle和MySQL数据库的批量update在mybatis中配置不太一样: <update id="batchUpdate" parameterType="java.util.List"> <foreach collection="list" item="item" index="index" open="begin" close="end;"

  • 2.4 FrozenLake使用cross-entropy方法2022-01-12 10:29:59

    FrozenLake是gym的另一个grid world环境。其环境简单的栅格地图,有四种栅格状态,分别用字母SFHG表示,下面是一个地图的例子: SFFF (S: starting point, safe) FHFH (F: frozen surface, safe) FFFH (H: hole, fall to your doom) HFFG (G: goal, where the frisbee is located)

  • pytorch 服务器加速训练2022-01-11 09:32:56

    问题:已经在服务器上训练了,但是训练的速度仍然很慢。 我在服务器上可以将batch变得很大,比如96/128,但是在训练的时候很慢,每秒只处理20张左右的图片(20 it/s),而这个在我自己的电脑上也可以达到(但是在我自己的电脑上,batch最多设置成8)。 pytorch中的batch更对应显卡的显存,一批次计算

  • 【人工智能->机器学习->深度学习】2022-01-10 18:34:24

    机器学习: 研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构,使之不断改善自身的性能。 实现:训练和预测,类似于归纳和演绎 归纳:从具体案例中抽象一般规律,机器学习中的“训练”亦是如此。从一定数量的样本(已知模型输入X和模型输出Y)中,学习输出Y与

  • Python性别识别2022-01-09 12:05:12

    男女的身高和体重有着显著的差别,此次Python程序的任务是根据一个人的身高和体重,简单判断他(她)的性别。 采用最简单的单层神经网络,logistic regression模型,模型输入一个人身高和体重,判断性别男女。 训练样本是sex_train.txt的文本,部分训练样本数据如下,第一列数字为身高(m);第二列数

  • AI系统——梯度累积算法2022-01-08 21:31:21

    明天博士论文要答辩了,只有一张12G二手卡,今晚通宵要搞定10个模型实验 挖槽,突然想出一个T9开天霹雳模型,加载不进去我那张12G的二手卡,感觉要错过今年上台Best Paper领奖   上面出现的问题主要是机器不够、内存不够用。在深度学习训练的时候,数据的batch size大小

  • AirSim学习笔记3:模型训练2022-01-03 23:58:52

    开源项目: 项目地址:https://github.com/Microsoft/AutonomousDrivingCookbook 汉化项目:https://gitee.com/zhoushimin123/autonomous-driving-cookbook Step 1 - 模型训练 现在我们对正在处理的数据有了一些感觉,可以开始设计我们的模型了。在本笔记本中,我们将定义网络架构并训

  • 数值稳定性QA2022-01-03 17:03:36

    1.nan,inf是怎么产生的以及怎么解决呢?答:inf(infinite)通常来说是你的学习率lr (learning rate)调的太大造成大,或者在你权重初始时(此时还没更新)的值太大了,炸掉了导致;nan一般是除0了,本来你梯度已经很小了,然后你又除0;解决的方法有上节课介绍的:合理初始化你的权重,激活函数别选错,学习率别

  • Batch Normalization2022-01-03 16:31:28

    BN回顾 首先Batch Normalization 中的Normalization被称为标准化,通过将数据进行平和缩放拉到一个特定的分布。BN就是在batch维度上进行数据的标准化。BN的引入是用来解决 internal covariate shift 问题,即训练迭代中网络激活的分布的变化对网络训练带来的破坏。BN通过在每次训练

  • python tips003 ——DataLoader的collate_fn参数使用详解2022-01-03 11:02:33

    背景 最近在看sentences-transformers的源码,在有一个模块发现了dataloader.collate_fn,当时没搞懂是什么意思,后来查了一下,感觉还是很有意思的,因此来分享一下。 dataloader dataloader肯定都是知道的,就是为数据提供一个迭代器。 基本工作机制: 在dataloader按照batch进行取数据

  • Pytorch_COCO数据集_dataset2021-12-31 17:02:22

    Coco数据集 本文主要内容来源于pytorch加载自己的coco数据集,针对其内容做学习和理解,进一步加深对数据集的理解以及自己的数据到dataset的步骤。仅作学习用 了解输入和输出 代码示例 #!/usr/bin/env python3 # -*- coding: UTF-8 -*- import os import os.path import json impo

  • 各种Normalization2021-12-29 21:34:31

    1 BatchNorm、InstanceNorm和LayerNorm的理解 [1] Batch Normalization, Instance Normalization, Layer Normalization: Structural Nuances • Transformer的Encoder使用了Layer Normalization • 还有个Group Normalization,可以参考《全面解读Group Normalization》 2 BatchNo

  • Nanodet训练出现ValueError 解决办法2021-12-28 16:32:48

    在配置完Nanodet环境之后,准备使用Nanodet训练自己的数据时候,出现了一个ValueError报错,看起来一头雾水,到Github提交Issue发现这个仓库活跃度不是很高,一直没有得到相关帮助。   最后就硬着头皮去想,查找相关文件,发现在yml配置文件中,device设置中batch_size 为160, 我的训练数据集

  • Spring Batch之Step的提交间隔(十七)2021-12-23 09:33:14

            批处理作业通常针对大数据量进行处理,同时框架需要将作业处理的状态实时地持久化到数据库中,如果读取一条记录就进行写操作或者状态数据的提交,会大量消耗系统资源,导致批处理框架性能下降。在面向批处理Chunk的操作中,可以通过属性commit-interval设置read多少条记

  • 手撕神经网络2021-12-22 12:35:41

    实验报告 代码见 https://github.com/pgcai/DoraPy 姓名:蔡普光 学号:********* 神经网络框架 实验一(拟合函数) 实验目的 尝试使用不同的n(神经元层数)和Ti(参数个数)参数定义神经网络。然后在定义域范围内随机采样作为输入,拟合定义域为-pi到pi的目标函数 y = a·cos(bx) +

  • PyTorch实现Mnist数据集2021-12-21 22:02:35

    import torch from torchvision import transforms from torchvision import datasets from torch.utils.data import DataLoader import torch.nn.functional as F import torch.optim as optim batch_size = 64 transform = transforms.Compose([transforms.ToTensor(), t

  • 恒源云_[文本分类] 文本数据增强1(论文笔记)2021-12-21 15:02:03

    文章来源 | 恒源云社区(恒源云,专注 AI 行业的共享算力平台) 原文地址 | 文本数据增强 原文作者 | 角灰 最近在做新闻标题分类,找了篇数据增强的文章学习学习: 一篇就够!数据增强方法综述 本文实现了EDA(简单数据增强)和回译: 一. EDA 1.1 随机替换 import random import jie

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有