ICode9

精准搜索请尝试: 精确搜索
  • C# WPF Caliburn.Micro框架下利用Mef加载其它项目界面2021-10-30 13:02:50

    01 —   前言         MEF是微软自家的托管可扩展框架,在这里我把它用成了ioc容器。在Caliburn.Micro框架下,view和viewmodel被注入到CompositionContainer容器中,然后通过名称可以实现view和viewmodel的匹配。利用这一特点,在多人合作项目开发中,一个解决方法就可以拆分成很多个

  • tensorflow中 batch, shuffle, repeat2021-10-29 16:04:09

    notice:tensorflow 1.14.0版本 import tensorflow.compat.v1 as tf tf.disable_v2_behavior() import numpy as np import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' d = np.arange(0, 60).reshape([6, 10]) data = tf.data.Dataset.from_tensor_slic

  • numpy手撕逻辑回归分类MNIST公式+代码2021-10-28 21:58:00

    简介 逻辑回归虽然顶着一个回归的名称,但是实际上做的是分类的事情。回归的一般形式可以表示为: f ( x ) =

  • 在Ubuntu20.04上训练YOLOv4-tiny2021-10-28 16:32:17

    在Ubuntu20.04上训练YOLOv4-tiny 一、资料下载 1.yolov4 官方下载:https://github.com/AlexeyAB/darknet 网盘下载:链接:https://pan.baidu.com/s/1HYiCANZZ4NPYFvMJ-cenFA 提取码:2rh0 2.yolov4-tiny.weights 官方下载:https://github.com/AlexeyAB/darknet/releases/download/da

  • collate_fn 使用详解2021-10-28 12:58:49

    collate_fn 参数 当继承Dataset类自定义类时,__getitem__方法一般返回一组类似于(image,label)的一个样本,在创建DataLoader类的对象时,collate_fn函数会将batch_size个样本整理成一个batch样本,便于批量训练。 default_collate(batch)中的参数就是这里的 [self.dataset[i] for i in

  • MNIST手写数字识别2021-10-27 21:06:11

    进入到研究生阶段了,从头学一下Pytorch,在这个小破站上记录一下自己的学习过程。 本文使用的是Pytorch来做手写数字的识别。 step0:先引入一些相关的包和库 import torch from torch import nn from torch.nn import functional as F from torch import optim import torchvisio

  • SHELL 作业一2021-10-25 23:03:55

    要求:1、安装JDK及配置环境变量。2、Shell脚本中,$0  $1  $$  $*  $?分别代表了什么意思?3、写一个脚本:显示出当前的脚本文件名和当前的系统时间。4、已知目录/scripts目录,执行batch.sh脚本,实现在/scripts目录下创建一个one.txt,在one.txt文件中增加内容“Hello Shell”。 1,第

  • 『论文笔记』Angular Loss2021-10-24 13:01:38

    三元组添加margin(记为alpha)形式损失函数为:      将特征归一化,并带入xc=(xp+xa)/2,省略常数项得到:   考虑log(exp(y1) + exp(y2)) ≥ max(y1, y2),对batch数据的处理整理为:          Batch整合的推导没深究,看起来是取了对单个anchor而言batch内最hard三元组的上界,作者说思

  • 7.批训练2021-10-23 22:04:17

    ''' Author: 365JHWZGo Description: 7.批训练 Date: 2021-10-23 20:36:43 FilePath: \pytorch\day06-3.py LastEditTime: 2021-10-23 21:27:29 LastEditors: 365JHWZGo ''' #批训练的作用: #展示每次所训练的数据 # 导包 import torch import torch.utils.data a

  • 训练yolox_nano报错:AttributeError: ‘Exp‘ object has no attribute ‘perspective‘2021-10-23 19:32:15

    刚刚我成功训练了yolox_nano模型,并且成功预测,但是现在要训练yolox_nano的时候又出现了问题,我的环境配置如下文章所示: https://blog.csdn.net/ELSA001/article/details/120918082?spm=1001.2014.3001.5501 我的训练命令如下: python tools/train.py -f exps/example/yolox_voc/

  • 【实践】NLP领域中的ERNIE模型在阅读理解中的应用2021-10-23 00:01:17

    使用ERNIE在DuReader_robust上进行阅读理解 1. 实验内容 机器阅读理解 (Machine Reading Comprehension) 是指让机器阅读文本,然后回答和阅读内容相关的问题。阅读理解是自然语言处理和人工智能领域的重要前沿课题,对于提升机器的智能水平、使机器具有持续知识获取的能力等具有

  • 李宏毅机器学习Task052021-10-20 23:32:51

    李宏毅机器学习Task05 梯度下降法的困难 本次重点关注神经网络算法中在用梯度下降法寻找最佳的那个 f ∗ f^* f∗时,如果梯度为0其实意味着

  • darknet配置yolo_v3的cfg配置文件2021-10-20 16:01:56

    问题与背景 对于一个新手,安装好了darknet框架之后,怎么开始训练呢?这里我们以yolov3为目标模型,将darknet看作丹炉,yolov3的网络结构看作单方,进行一波”炼丹“。首先找到一个标准的yolov3的cfg文件,需要对里面的参数读懂,然后更改,适配一下数据集,就可以进行训练了。 参考资料 https:

  • 线性回归的从零开始实现2021-10-18 17:32:39

    1 导入实验所需要的包 import torch import numpy as np import matplotlib.pyplot as plt from torch import nn from IPython import display #解决内核挂掉 import os os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE" 2 生成数据集   将根据带有噪声的线性模型构造一个人造

  • Pytorch归一化方法讲解与实战:BatchNormalization、LayerNormalization、nn.BatchNorm1d和LayerNorm()2021-10-16 19:34:07

    文章目录 LayerNormalizationBatchNormalization 这些Normalization的作用都是让数据保持一个比较稳定的分布,从而加速收敛。Batch Normalization 的处理对象是对一批样本, Layer Normalization 的处理对象是单个样本。不过,他们到底指的是什么呢?有的时候,讲解是多余的,实战

  • NLP神经网络模型训练时,不同batch可以padding到不同长度嘛?2021-10-16 15:01:29

    同一个batch内要padding到一样长度,不同batch之间可以不一样 这一点,对于 (绝大多数) NLP模型都是这样的 同一个batch内要padding到一样长度 神经网络,内部大都是矩阵的运算,batch训练,需要矩阵输入 因此一个batch要padding到一样的长度,才能形成一个矩阵,像 [[1,2], [3,4,5]] 它

  • 卷积神经网络2021-10-16 13:31:04

    import paddle import paddle.nn.functional as F from paddle.vision.transforms import ToTensor import numpy as np import matplotlib.pyplot as plt print(paddle.version) transform = ToTensor() cifar10_train = paddle.vision.datasets.Cifar10(mode=‘train’,tra

  • 卷积神经网络训练cifar10数据集2021-10-15 21:34:09

    使用飞桨训练cifar10数据集 import paddle import paddle.nn.functional as F from paddle.vision.transforms import ToTensor import numpy as np import matplotlib.pyplot as plt transform = ToTensor() # 训练集 cifar10_train = paddle.vision.datasets.Cifar10(mode

  • 七牛云的 python sdk 是如何 批量删除资源的2021-10-15 19:01:48

    今天做项目的时候用到七牛云,关于对资源的操作是在后端做的,用的SDK,但是,在网上没找到详细的解析,官方文档也没有太详细的解说,所以无奈只好看下源码 这里做一下简单的记录 from qiniu import build_batch_delete, Auth, BucketManager #需要填写你的 Access Key 和 Secret Key,这个

  • torch.utils.data.DataLoader之简易理解(小白进)2021-10-15 12:32:37

    官方解释:Dataloader 组合了 dataset & sampler,提供在数据上的 iterable 主要参数: 1、dataset:这个dataset一定要是torch.utils.data.Dataset本身或继承自它的类 里面最主要的方法是 __getitem__(self, index) 用于根据index索引来取数据的 2、batch_size:每个batch批次要返回几条

  • Batch Normalization(BN)超详细解析2021-10-13 20:57:57

    单层视角 神经网络可以看成是上图形式,对于中间的某一层,其前面的层可以看成是对输入的处理,后面的层可以看成是损失函数。一次反向传播过程会同时更新所有层的权重W1,W2,…,WL,前面层权重的更新会改变当前层输入的分布,而跟据反向传播的计算方式,我们知道,对Wk的更新是在假定其输入

  • NLP学习笔记<4> 循环神经网络RNN之()LSTM2021-10-09 23:04:09

    目录 4.1 长短期记忆网络与门控循环  4.2 RNN的架构设计 4.3 pytorch实现 1.RNN  2.LSTM  3.Bi-LSTM 4.1 长短期记忆网络与门控循环 长短期神经网络(Long Short-term Memory, LSTM)神经网络能够进一步改善之前RNN的记忆能力并且减轻梯度爆炸和梯度消失的问题,它对RNN的主要修

  • 深度学习基础--多层感知机(MLP)2021-10-09 21:04:02

    深度学习基础–多层感知机(MLP) 最近在阅读一本书籍–Dive-into-DL-Pytorch(动手学深度学习),链接:https://github.com/newmonkey/Dive-into-DL-PyTorch,自身觉得受益匪浅,在此记录下自己的学习历程。 本篇主要记录关于多层感知机(multilayer perceptron, MLP)的知识。多层感知机是在

  • Pytorch中对RNN输入和输出的形状总结2021-10-09 00:00:24

    PyTorch中RNN的输入和输出的总结 RNN的输入和输出Pytorch中的使用理解RNN中的batch_size和seq_len 个人对于RNN的一些总结,如有错误欢迎指出。 RNN的输入和输出 RNN的经典图如下所示 各个参数的含义 Xt: t时刻的输入,形状为[batch_size, input_dim]。对于整个RNN来说,总的

  • 机器学习的入门指南,李宏毅2021机器学习课程知识点框架(从深度学习开始了解机器学习)2021-10-07 12:03:24

    一.什么是机器学习   在开始正式的学习之前,可能需要先了解几个概念,机器学习(Machine Learning简称ML),人工智能(Artificial Intelligence简称AI)和深度学习(Deeping Learning简称DL),人工智能顾名思义通过人工的方式实现机器的智能,是最终要达到的目的。据笔者所知,目前人类还没有实

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有