ICode9

精准搜索请尝试: 精确搜索
  • CNN 卷积神经网络2022-04-07 08:00:34

    LeNet 由 Yann LeCun 发明的著名的 LeNet. 原版中激活函数用的都是 $\mathrm{sigmoid}$, 现在看来用 $\mathrm{ReLU}$ 或 $\mathrm{tanh}$ 也许会更合适.   Fashion - mnist 数据集的识别 数据下载 def gener(): trans = transforms.ToTensor() mnist_train =

  • python机器学习——BP(反向传播)神经网络算法2022-04-05 23:03:01

    背景与原理: BP神经网络通常指基于误差反向传播算法的多层神经网络,BP算法由信号的前向传播和反向传播两个过程组成,在前向传播的过程中,输入从输入层进入网络,经过隐含层逐层传递到达输出层输出,如果输出结果与预期不符那么转至误差反向传播过程,否则结束学习过程。在反向传播过程中,误差

  • 机器学习 神经网络权重初始值设置2022-04-05 14:32:22

    关于神经网络权重初始值的设置的研究 一、权重初始值 二、权重初始值会影响隐藏层的激活值分布 三、Xavier初始值 四、He初始值 五、基于MNIST数据集的权重初始值的比较   一、权重初始值 权值衰减—抑制过拟合、提高泛化能力。 所谓权值衰减,即,以减小权重参数的值为

  • 机器学习 神经网络过拟合 权值衰减算法2022-04-05 14:31:25

    使用权值衰减算法解决神经网络过拟合问题、python实现 一、what is 过拟合 二、过拟合原因 三、权值衰减 四、实验验证 4.1制造过拟合现象 4.2使用权值衰减抑制过拟合   一、what is 过拟合 过拟合指只能拟合训练数据,但不能很好拟合不包含在训练数据中的其他数据的

  • 神经网络_22022-04-05 13:01:17

    代价函数 ​ 假设神经网络的训练样本有m个,每个包含一组输入x和一组输出信号y,L表示神经网络层数,\(s_I\)表示每层的neuron个数,\(s_L\)表示最后一层(输出层)神经单元个数 ​ 神经网络可分为二分类和多分类情况 ​ 二分类:\(S_L = 1,y=0 \ or \ 1\)可以表示哪类 ​ K分类:\(S_L=k,y_i=1\)

  • Machine Learning 学习笔记 02 卷积、感知机、神经网络2022-04-05 12:32:39

    卷积 理解卷积公式(狭隘) \[\int_{-\infty}^{\infty} f(\tau) g(x-\tau) \mathrm{d} \tau \]一个人24小时不间断进食,且一直在消化,消化的速率和他吃的东西没有关系。问下午两点这个人胃里还剩多少食物。 用f函数表示进食,用\(g\)函数表示消化,就能把下午两点这个人胃里还剩多少食物求

  • 卷积神经网络2022-03-31 22:00:07

    卷积神经网络  https://blog.csdn.net/stdcoutzyx/article/details/41596663    (忽略其中标注的小错误,多卷积核中的4个通道不是原始图片的红黄绿三通道,而是前面经过卷积后形成的4通道)     如何理解权值共享   https://www.zhihu.com/question/47158818    (可以权值

  • 低光照车牌识别研究2022-03-31 02:02:15

    1 绪论 做每个环节的现状研究。 文章的整体架构构思。   2 卷积神经网络基础   主要介绍了卷积神经网络的基本原理和卷积神经网络的一些变形结构。基本原理方面包括卷积网络的卷积、池化、激活等。 基于卷积神经网络的变形包括反卷积、膨胀卷积等。同时介绍了训练卷积网络的常

  • 神经网络和决策树2022-03-27 17:31:56

    1、神经网络 '''神经网络测试''' import pandas as pd from keras.models import Sequential from keras.layers.core import Dense, Activation import numpy as np # 参数初始化 inputfile = 'C:/Users/86183/Desktop/data/bankloan.xls' data =

  • 神经网络在文章摘要生成中调研2022-03-25 11:33:08

    前段时间因为需要,进行了神经网络在智能摘要的应用,正好写下来 1. 开放数据   1.开放数据 DUC, Daily Mail/CNN, Gigaword, LCSTS(唯一中文微博标题生成语料)[1] 2.智能摘要形式[2-4] Extract (抽取式,优点:语法无误,缺点:压缩性不高,句子间衔接不够通顺) Abstract(生成式,优点:通顺,压缩性高

  • 循环神经网络(二)——LSTM2022-03-21 23:35:44

    1. 为什么需要LSTM 普通RNN的信息不能长久传播(存在于理论上)。 ,输入x会稀释掉状态s,故其信息不能长久的传播。 2. LSTM中引入了什么 2.1 选择性机制 选择性输入选择性遗忘选择性输出 2.2 实现选择性机制的方法 2.2.1 门——> sigmoid 函数 2.2.2 门限机制 向量A——>sigmoid

  • 两秒了解基础RNN模型2022-03-21 22:05:04

    RNN是一种序列模型,所谓的序列模型就是序列中包含信息。 序列模型的严格定义是:输入或输出中包含序列数据的模型叫做序列模型。 其有两大特点: 输入(输出)元素之间是具有顺序关系,不同的顺序,得到的结果应该是不同的,比如‘不睡觉’和‘睡觉不’这两个短语的意思是不同的。输入输出不定

  • bp神经网络2022-03-21 20:33:05

    import mathimport numpy as npimport pandas as pdfrom pandas import DataFramey =[0.14 ,0.64 ,0.28 ,0.33 ,0.12 ,0.03 ,0.02 ,0.11 ,0.08 ]x1 =[0.29 ,0.50 ,0.00 ,0.21 ,0.10 ,0.06 ,0.13 ,0.24 ,0.28 ]x2 =[0.23 ,0.62 ,0.53 ,0.53 ,0.33 ,0.15 ,0.03 ,0.23 ,0.03 ]the

  • bp神经网络2022-03-21 13:03:27

    import mathimport numpy as npimport pandas as pdfrom pandas import DataFrame,Series def sigmoid(x): #映射函数return 1/(1+math.exp(-x)) x1=[0.29,0.50,0.00,0.21,0.10,0.06,0.13,0.24,0.28]x2=[0.23,0.62,0.53,0.53,0.33,0.15,0.03,0.23,0.03]y=[0.14,0.64,0.28,0.33,0.1

  • 信号去噪:使用专门设计的神经网络(NN)模型对测量信号进行去噪处理,使信号变得更平滑2022-03-21 09:02:19

    信号预处理 为了对测量数据进行预处理,构建了一个全连接的前馈 NN 模型以将系统输入(即x 和 t)映射到其输出 u。 图显示了用于去噪的 NN 模型的结构。 它在输入层和输出层之间有五个隐藏层,神经元的数量分别为 50、100、500、100 和 50。该模型使用双曲正切激活函数(即 Tanh 函数)。

  • 深度学习2022-03-20 21:04:10

    1)神经元(Neuron)——就像形成我们大脑基本元素的神经元一样,神经元形成神经网络的基本结构。想象一下,当我们得到新信息时我们该怎么做。当我们获取信息时,我们一般会处理它,然后生成一个输出。类似地,在神经网络的情况下,神经元接收输入,处理它并产生输出,而这个输出被发送到其他神经元用于

  • 将强化学习应用到量化投资中实战篇(神经网络模块开发)2022-03-20 18:02:31

    将强化学习应用到量化投资中实战篇(神经网络模块开发) 文章目录 将强化学习应用到量化投资中实战篇(神经网络模块开发)1.前言2 父类Network类3. DNN4.LSTM5.CNN 1.前言 在本节内容中,将详细介绍神经网络模块中包含的几个神经网络类的属性和功能,并详细讲解基于 Python和Pytor

  • BP神经网络。2022-03-19 23:05:49

    import mathimport numpy as npimport pandas as pdfrom pandas import DataFrame y =[0.14 ,0.64 ,0.28 ,0.33 ,0.12 ,0.03 ,0.02 ,0.11 ,0.08 ]x1 =[0.29 ,0.50 ,0.00 ,0.21 ,0.10 ,0.06 ,0.13 ,0.24 ,0.28 ]x2 =[0.23 ,0.62 ,0.53 ,0.53 ,0.33 ,0.15 ,0.03 ,0.23 ,0.03 ]th

  • BP神经网络2022-03-19 23:03:29

    import mathimport numpy as npimport pandas as pdfrom pandas import DataFramey =[0.14 ,0.64 ,0.28 ,0.33 ,0.12 ,0.03 ,0.02 ,0.11 ,0.08 ]x1 =[0.29 ,0.50 ,0.00 ,0.21 ,0.10 ,0.06 ,0.13 ,0.24 ,0.28 ]x2 =[0.23 ,0.62 ,0.53 ,0.53 ,0.33 ,0.15 ,0.03 ,0.23 ,0.03 ]the

  • 神经网络2022-03-19 23:02:41

    print("姓名:吴文蕊,学号:2020310143127")import pandas as pd import numpy as np import matplotlib.pyplot as plt def sigmoid(x): return 1/(1+np.exp(-x)) data_tr = pd.read_csv('D:\jupyter notebook\3.3 data_tr.txt') # 训练集样本 data_te = pd.

  • bp神经网络2022-03-19 21:04:31

    import mathimport numpy as npimport pandas as pdfrom pandas import DataFrame,Series def sigmoid(x): return 1/(1+math.exp(-x))y =[0.14 ,0.64 ,0.28 ,0.33 ,0.12 ,0.03 ,0.02 ,0.11 ,0.08 ]x1 =[0.29 ,0.50 ,0.00 ,0.21 ,0.10 ,0.06 ,0.13 ,0.24 ,0.28 ]x2 =[0.23 ,0.

  • 神经网络2022-03-19 21:03:32

    import mathimport numpy as npimport pandas as pdfrom pandas import DataFrame,Seriesdef sigmoid(x): return 1/(1+math.exp(-x))x1=[0.29,0.50,0.00,0.21,0.10,0.06,0.13,0.24,0.28]x2=[0.23,0.62,0.53,0.53,0.33,0.15,0.03,0.23,0.03]y=[0.14,0.64,0.28,0.33,0.12,0

  • BP神经网络-262022-03-19 20:36:33

    @author: Mint """ import math import numpy as np import pandas as pd from pandas import DataFrame y =[0.14 ,0.64 ,0.28 ,0.33 ,0.12 ,0.03 ,0.02 ,0.11 ,0.08 ] x1 =[0.29 ,0.50 ,0.00 ,0.21 ,0.10 ,0.06 ,0.13 ,0.24 ,0.28 ] x2 =[0.23 ,0.62 ,0.53

  • 神经网络参数初始化参数固定2022-03-19 19:35:18

    一般来说,神经网络模型实验重复多次,但最终结果仍然有较大波动时,应该从三个方面结果:种子、初始点、优化器。 其中种子的固定尤为关键,应在代码中加入下列种子固定代码 def setup_seed(seed): random.seed(seed) np.random.seed(seed) torch.manual_seed(seed) tor

  • 大二寒假摸鱼报告2022-03-19 14:33:49

    摸鱼摸鱼摸鱼。。。。。     寒假学习报告——深度学习 包云飞   自动化204   205506 摘要: 本文作为本人深度学习的简要汇报 关键字:深度学习 学习报告 引言:深度学习在人工智能领域揭起热潮,应用其原理使得多种技术落地进入人们的日常生活,本文则作为本人寒假学习的记录。 一、

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有