ICode9

精准搜索请尝试: 精确搜索
  • 批处理框架 Spring Batch 这么强,你会用吗?2022-03-28 19:01:30

    批处理框架spring batch基础知识介绍 https://blog.csdn.net/topdeveloperr/article/details/84337956 Table of Contents spring batch简介 Spring Batch架构介绍 Spring Batch核心概念介绍 什么是Job 什么是JobInstance 什么是JobParameters  什么是JobExecution 什么是Step

  • 论文回顾:Batch Augmentation,在批次中进行数据扩充可以减少训练时间并提高泛化能力2022-03-26 10:32:08

    Batch Augmentation(BA):提出使用不同的数据增强在同一批次中复制样本实例,通过批次内的增强在达到相同准确性的前提下减少了SGD 更新次数,还可以提高泛化能力。 Batch Augmentation (BA) 没有 BA 的普通SGD: 一个具有损失函数 ℓ (w, xn, yn) 的模型, {xn, yn} 表示目标对的数据集 ,n

  • batch change commit author2022-03-25 16:01:34

    #!/bin/sh git filter-branch --env-filter ' OLD_EMAIL="your-old-email@example.com" CORRECT_NAME="Your Correct Name" CORRECT_EMAIL="your-correct-email@example.com" if [ "$GIT_COMMITTER_EMAIL" = "$OLD_EMAI

  • keras调用flow_from_directory()出现“Found 0 images belonging to 2 classes”问题2022-03-20 10:07:11

    图像分类时,keras调用flow_from_directory()出现“Found 0 images belonging to 5 classes”问题 代码如下: from tensorflow import keras from keras_preprocessing import image train_datagen = image.ImageDataGenerator( #..... fill_mode = 'nearest', v

  • baselines算法库common/tile_images.py模块分析2022-03-19 10:04:57

    该模块只有一个函数,全部内容: import numpy as np def tile_images(img_nhwc): """ Tile N images into one big PxQ image (P,Q) are chosen to be as close as possible, and if N is square, then P=Q. input: img_nhwc, list or array of image

  • 【神经网络】(12) MobileNetV2 代码复现,网络解析,附Tensorflow完整代码2022-03-11 12:32:26

    各位同学好,今天和大家分享一下如何使用 Tensorflow 复现谷歌轻量化神经网络 MobileNetV2。 在上一篇中我介绍了MobileNetV1,探讨了深度可分离卷积,感兴趣的可以看一下:https://blog.csdn.net/dgvv4/article/details/123415708,本节还会继续用到深度可分离卷积的知识。那我们开始吧。

  • GPT-3被超越?解读低能耗、高性能的GlaM模型2022-03-08 21:32:35

    ©原创作者 | LJ GLaM: Efficient Scaling of Language Models with Mixture-of-Experts https://arxiv.org/pdf/2112.06905.pdf 01 摘要 这是上个月谷歌刚刚在arxiv发布的论文,证明了一种能scale GPT-3但又比较节省耗能的架构。 GPT-3自问世以来在多项自然语言处理的任务上都有

  • nn.linear()函数2022-03-08 12:01:54

    nn.Linear():用于设置网络中的全连接层,需要注意的是全连接层的输入与输出都是二维张量 一般形状为[batch_size, size],不同于卷积层要求输入输出是四维张量。其用法与形参说明如下:  

  • 深度学习准确率(acc)计算方法2022-03-06 09:00:22

    本文简单介绍模型训练时候,使用准确率求解过程,不涉及精确率和召回率计算, 本文给出简要计算方法与代码。   计算方法: 使用top1计算为例(以下以2个batch,3个num_classes举列): 网络预测结果形式:pred=[b,num_classes] ,如pred=[[0.6,0.8,0.9],[0.7,0.4,0.3]] 真实标签形式:label=[b],如bat

  • 【Pytorch Lightning】基本特征2022-03-02 23:31:09

    手动优化和自动优化 自动优化。使用lightning,你不需要担心何时启用/禁用梯度的计算,做反向传播,或者更新优化器等。只要你在training_step中返回一个带有loss的图,Lightning就会自动进行优化。 def training_step(self, batch, batch_idx): loss = self.encoder(batch)

  • 【代码记录】取一个batch的数据计算概率2022-03-02 13:35:03

    取到一个batch的数据,计算概率 def calculate_y_prob_by_iterator(self, dataStream): YArr,Y_preArr = [],[] while True: try: X,Y,candidate = next(dataStream) except: break

  • 深度学习入门:SGD2022-03-01 10:06:25

    SGD SGD为随机梯度下降法。用数学式可以将 SGD 写成如下的式(6.1)。 这里把需要更新的权重参数记为W,把损失函数关于W的梯度记为∂L/∂W 。η 表示学习率,实际上会取 0.01 或 0.001 这些事先决定好的值。式子中的←表示用右边的值更新左边的值。如式(6.1)所示,SGD 是朝着梯度方向只

  • centerpoint模型说明2022-03-01 01:00:40

    1、调试时,执行到 for i, data_batch in enumerate(data_loader):时,第一次ok,第二次卡主了。网上给出的解决方法是将加载器DataLoader参数num_workers设为1 batch_size = num_gpus * batch_size num_workers = num_gpus * workers_per_gpu # TODO change pin

  • paddle与强化学习笔记2022-02-28 18:34:16

    paddle与强化学习笔记 1.预习1.1MNIST手写识别 2.初识3.基于表格型求解RL4.基于神经网络求解RL5.基于策略梯度求解RL6.连续动作空间上求解RL 最近打算学习强化学习,看到了百度的公开课(https://aistudio.baidu.com/aistudio/education/group/info/1335),所以跟着学习记录一些

  • 使用并发 ssh 连接来提升捞日志脚本执行效率2022-02-23 10:02:00

    问题背景 公司有个简单粗暴的日志服务,它部署在多台机器实例上,收集的日志记录在每台机器本地硬盘,写一个小时自动切换日志文件,硬盘空间写满了自动回卷,大约可以保存两三天的历史数据。为什么说它粗暴呢?原来它不提供任何查询日志的接口,想要获取日志唯一的办法就是直接查日志文件: ssh

  • 使用并发 ssh 连接来提升捞日志脚本执行效率2022-02-23 10:00:07

    问题背景 公司有个简单粗暴的日志服务,它部署在多台机器实例上,收集的日志记录在每台机器本地硬盘,写一个小时自动切换日志文件,硬盘空间写满了自动回卷,大约可以保存两三天的历史数据。为什么说它粗暴呢?原来它不提供任何查询日志的接口,想要获取日志唯一的办法就是直接查日志文件: ssh

  • 归一化:Layer Normalization、Batch Normalization2022-02-22 22:33:09

    归一化的核心思想是把一组数据转化为均值为 0,方差为 1 的数据,使得训练数 据在训练过程中尽可能的保持和测试数据拥有相同的分布。 一方面,这样可以减少 数据的偏差,避免在训练过程中出现梯度爆炸或是梯度消失的问题; 另一方面,这也是确保模型测试性能的重要假设之一。

  • 使用并发 ssh 连接来提升捞日志脚本执行效率2022-02-22 12:03:00

    问题背景 公司有个简单粗暴的日志服务,它部署在多台机器实例上,收集的日志记录在每台机器本地硬盘,写一个小时自动切换日志文件,硬盘空间写满了自动回卷,大约可以保存两三天的历史数据。为什么说它粗暴呢?原来它不提供任何查询日志的接口,想要获取日志唯一的办法就是直接查日志文件: ssh

  • docker-compose挂载目录权限问题2022-02-21 18:03:24

    容器内使用非root用户运行  挂载的目录与容器中用户id不一致  容器内权读取挂载目录中的文件 docker-compose.yml 配置   注意user为tomcat  挂载了目录./prop version: '2' services: app-batch: container_name: app-batch-1 image: 'tomcat:8.5-jdk8'

  • SAP UI5 框架是如何执行 batch 请求的单步调试2022-02-20 21:02:25

    req.get('content-type') 正常的 batch 操作,response 的 content-type 不应该返回 html 类型: 正确的 batch response,Content-Type 值应该是 multipart/mixed; boundary=batchresponse_后面跟一个 guid success handler 即下图的 fnSuccess, 被包裹在 wraHandler 里。 content-t

  • 数据库实战总结2022-02-18 18:31:21

    一、MySql插入大量数据 1、建表 CREATE TABLE `t_test`( `id` BIGINT(20) not null AUTO_INCREMENT, `content` VARCHAR(255) DEFAULT null, PRIMARY KEY(`id`) ) ENGINE=MYISAM DEFAULT CHARSET=utf8; 这里选择数据库引擎是MYISAM。 2、建立存储过程 因为要插入100

  • 简单粗暴的tensorflow-多层感知机(MLP)2022-02-17 14:03:58

    # 数据集 class MNISTLoader(): def __init__(self): mnist = tf.keras.datasets.mnist (self.train_data, self.train_label), (self.test_data, self.test_label) = mnist.load_data() # MNIST中的图像默认为uint8(0-255的数字)。以下代码将其归一化

  • 3090显卡 爆显存调试2022-02-10 21:00:38

    可能存在的原因 每每轮到dataloader加载数据时: for epoch in range(start_epoch, end_epoch): for i, data in enumerate(trainloader): dataloader一次性创建num_worker个worker,(也可以说dataloader一次性创建num_worker个工作进程,worker也是普通的工作进程), 并用batch_s

  • 时间序列项目LSTM2022-02-08 20:06:08

    前言 这个项目真的好烦,我感觉我每次都能学到很多不一样的想法,每一次的学习都告诉我,我之前做错了,想错了。一个人的路真的好难走,就跟踩着牛粪一样,忍着臭往前走,饿了就用牛粪烤些馍吃继续走 LSTM数据准备 将时间序列转化为监督学习问题。将时间序列转换为平稳时序。将观察结果转

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有