ICode9

精准搜索请尝试: 精确搜索
  • 卷积神经网络2022-02-20 14:02:13

    # author: Roy.G# author: Roy.Gfrom keras.datasets import mnistimport matplotlib.pyplot as pltfrom keras.utils.np_utils import to_categorical #import to_categoricalimport numpy as npfrom keras.models import Sequential as sqfrom keras.layers import Dense a

  • 《Python深度学习》读书笔记:第5章 深度学习用于计算机视觉2022-02-20 10:58:41

    目录 第5章 深度学习用于计算机视觉 5.1 卷积神经网络简介 5.1.1 卷积运算 5.1.2 最大池化运算 5.2 在小型数据集上从头开始训练一个卷积神经网络 5.2.1 深度学习与小数据问题的相关性 5.2.2 下载数据 5.2.3 构建网络 5.2.4 数据预处理 5.2.5 使用数据增强 5.3 使用预训练的卷积

  • 1357:车厢调度(train) ybt2022-02-20 09:02:19

    1357:车厢调度(train) 【题目描述】 有一个火车站,铁路如图所示,每辆火车从A驶入,再从B方向驶出,同时它的车厢可以重新组合。假设从A方向驶来的火车有nn节(n≤1000n≤1000),分别按照顺序编号为11,22,33,…,nn。假定在进入车站前,每节车厢之间都不是连着的,并且它们可以自行移动到B处的铁轨上

  • mnist 图像识别,一维算法,非卷积神经网络2022-02-20 02:02:27

    # author: Roy.G# author: Roy.G# author: Roy.Gfrom keras.datasets import mnistimport matplotlib.pyplot as pltfrom keras.utils.np_utils import to_categorical #import to_categoricalimport numpy as npfrom keras.models import Sequential as sqfrom keras.layers

  • 联邦学习:按Dirichlet分布划分Non-IID样本2022-02-15 19:35:40

    我们在《Python中的随机采样和概率分布(二)》介绍了如何用Python现有的库对一个概率分布进行采样,其中的Dirichlet分布大家一定不会感到陌生。该分布的概率密度函数为 \[P(\bm{x}; \bm{\alpha}) \propto \prod_{i=1}^{k} x_{i}^{\alpha_{i}-1} \\ \bm{x}=(x_1,x_2,...,x_k),\quad x

  • 【算法竞赛学习】金融风控之贷款违约预测-建模与调参2022-02-11 10:58:00

    Task4 建模与调参 此部分为零基础入门金融风控的 Task4 建模调参部分,带你来了解各种模型以及模型的评价和调参策略,欢迎大家后续多多交流。 赛题:零基础入门数据挖掘 - 零基础入门金融风控之贷款违约预测 项目地址:https://github.com/datawhalechina/team-learning-data-mining

  • cs231n 课程学习 一2022-02-10 11:02:09

    cs231n 课程学习 一 cs231n 课程资源:Stanford University CS231n: Convolutional Neural Networks for Visual Recognition 我的 github 作业:FinCreWorld/cs231n: The assigments of cs231n (github.com) 第一章 图像分类——以KNN为例 一 简介 什么是图像分类:给定程序一

  • pytorch框架下的线性回归小demo2022-02-09 21:31:00

    线性回归demo 一个使用pytorch框架训练线性回归的小demo 用cpu就能很快跑出来不需要额外的输入文件 import torch import numpy as np import torch.nn as nn x_values = [i for i in range(11)] # [0,1,2,3,4,5,6,7,8,9,10] x_train = np.array(x_values, dtype=np.float3

  • loadmat()函数加载.mat数据文件2022-02-09 21:05:35

    loadmat()函数源码如下: def loadmat(file_name, mdict=None, appendmat=True, **kwargs): variable_names = kwargs.pop('variable_names', None) MR, file_opened = mat_reader_factory(file_name, appendmat, **kwargs) matfile_dict = MR.get_variables(v

  • python深度学习笔记3—— 卷积神经网络简介2022-02-09 17:58:31

    卷积运算 密集连接层和卷积层的根本区别: Dense 层从输入特征空间中学到的是全局模式(比如对于 MNIST 数字,全局模式就是涉及所有像素的模式) 卷积层学到的是局部模式,对于图像来说,学到的就是在输入图像的二维小窗口中发现的模式。在上面的例子中,这些窗口的大小都是 3×3。 卷积神

  • 刘二大人《Pytorch深度学习实践》02.线性模型2022-02-09 17:02:17

    本人根据b站上刘老师的视频,简单做了一下,内容主要包括课上所讲内容的复现以及所留作业的实现。具体代码解释我都按照自己的理解放在代码后面了,如有不对的地方请多多包涵,毕竟俺也是第一次学,只是想找个地方把学到的东西找个地方存起来~ from collections import OrderedDict impor

  • paddlepaddle 9 MC Dropout的使用2022-02-08 23:01:45

    MC Dropout是指蒙特卡罗Dropout,其可以在不改就网络结构与增加训练的情况下在测试阶段提升模型的性能,本质就是在测试时将dropout一直处于激活阶段。对网络进行多次前向传播,由于dropout每一次激活的神经元都不同,使得每次的结果都会不一样。将多次输出的结果取平均值,可以在一定程度

  • 时间序列项目LSTM2022-02-08 20:06:08

    前言 这个项目真的好烦,我感觉我每次都能学到很多不一样的想法,每一次的学习都告诉我,我之前做错了,想错了。一个人的路真的好难走,就跟踩着牛粪一样,忍着臭往前走,饿了就用牛粪烤些馍吃继续走 LSTM数据准备 将时间序列转化为监督学习问题。将时间序列转换为平稳时序。将观察结果转

  • 深度学习笔记020 LeNet2022-02-07 23:31:08

    LeNet卷积神经网络 所谓卷积Net,就是将空间信息不停地压缩,压缩,在压缩,最后将特征变得很小很小,通道数变得越来越多,最后甚至特征会变成1,通道数会变成上千,最后做全连接输出,这便是卷积神经网络的内核。 feature map:输出 LeNet:    输入是一个32x32的图,第一层卷积,大概是用的3x3的核,所

  • python -day82022-02-07 16:04:43

    2、字典:   增删改查     a={1:'a',2:'b',3:'c'}     b={4:'d'}     1)增:a.update(b)             a         >>>{1:'a',2:'b',3:'c',4:'d'}     2)删:a.pop(3)         a  >>>{1

  • 一些自己的机器学习函数(方便自己复制粘贴)2022-02-07 14:31:44

    1、降采样 def down_sample(train_x,train_y): train_0 = train_x[np.where(train_y == 0)] train_0_y = train_y[np.where(train_y == 0)] train_1 = train_x[np.where(train_y == 1)] train_1_y = train_y[np.where(train_y == 1)] if train_0.shape[0]>

  • pytorch本地图片数据集加载成字典2022-02-06 20:58:35

    from torchvision.transforms import transforms import pandas as pd file_path=os.path.join(r'E:\python存储\leaves\images') Image_list=[] labels_list=[] a={} for i in range(0,18352): image_path=os.path.join(r'E:\python存储\leaves\image

  • 神经网络的学习-搭建神经网络实现mnist数据集分类2022-02-06 16:02:39

    文章目录 四、神经网络的学习1.损失函数2.损失函数的意义3.数值微分4.梯度法5.学习算法的实现 四、神经网络的学习 这一章通过两层神经网络实现对mnist手写数据集的识别,本文是源于《深度学习入门》的学习笔记 若理解困难,参考上一章笔记:深度学习入门-从朴素感知机到神

  • Pytorch学习记录(七)自定义模型的训练、验证与保存2022-02-06 13:35:07

    自定义模型的训练、验证与保存 完整的自定义模型,以CIFAR10为例 # encoding:utf-8 import torch import torchvision from torch import nn, optim from torchvision import transforms as T from torch.utils.data import DataLoader from torch.utils.tensorboard import Summary

  • 预测:时间序列&LSTM2022-02-05 16:33:24

    时间序列   时间序列预测,可以对小样本预测。使用时间序列预测,数据必须要满足平稳性要求。 平稳性: 要使用时间序列预测数据,数据需要满足稳定性要求。一般要求数据的均值和方差不发生明显变化。   严平稳:高斯白噪声即高斯分布,也就是标准的正态分布。它的均值和方差不发生变

  • 第二章:机器学习的流程2022-02-05 11:31:00

    文章目录 2.1 机器学习流程的简介2.1.1 进行机器学习的整体流程2.1.2 数据的学习 2.2 学习数据的使用方法2.2.1 学习数据与测试数据2.2.2 留出法的理论与实践2.2.3 k折交叉验证的理论2.2.4 k折交叉验证的实践 2.3 过拟合2.3.1 什么是过拟合2.3.2 如何避免过拟合归一化处理

  • Tensorflow2.0实现断点续训2022-02-04 19:02:53

    参考: https://www.bilibili.com/video/BV16A41157LW?p=17 视频及课件来源 北京大学 曹建 使用的识别图片 获取训练数据集 def get_mnist_data(): # 参考: https://www.codenong.com/53310656/ # 获取数据 return (x_train, y_train), (x_test, y_test) (x_tra

  • 权重衰退实验(李沐动手学)2022-02-04 17:30:20

    import torch from torch import nn from d2l import torch as d2l import matplotlib.pyplot as plt n_train, n_test, num_inputs, batch_size = 20, 100, 200, 5 true_w, true_b = torch.ones((num_inputs, 1)) * 0.01, 0.05 train_data = d2l.synthetic_data(true_w, tru

  • chapter3——逻辑回归手动+sklean版本2022-02-04 01:32:15

    1 导入numpy包 import numpy as np 2 sigmoid函数 def sigmoid(x): return 1/(1+np.exp(-x)) demox = np.array([1,2,3]) print(sigmoid(demox)) #报错 #demox = [1,2,3] # print(sigmoid(demox)) 结果: [0.73105858 0.88079708 0.95257413] 3 定义逻辑回归模型主体 ##

  • 自回归模型的两种策略——马尔科夫假设与隐变量自回归模型2022-02-03 22:33:57

    基础知识 序列模型的基础 由概率论中的贝叶斯公式可知 得到全概率公式 也就是每一个xt时刻的值,是与它之前所有时刻的值都有关系,因此如果可以通过前面的值推算出分布或者函数(不一定完全按照这个分布),那么就可以有准确的预测。 序列模型 自回归模型的两种策略 1、(马尔科夫假设)假

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有