ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

【深度学习】前馈神经网络

2022-01-14 20:00:02  阅读:193  来源: 互联网

标签:输出 false 函数 前馈 神经网络 深度 输入 神经元


一、前馈神经网络

思维导图

线性问题分为两个:

1.与门

 

ININOUT
111
100
010
000

2.或门

ININOUT
111
101
011
000

非线性问题:

异或门

ININOUT
110
101
011
000

方便学习理解的工具:

神经网络可视化工具Tensorflow_playground

 链接:http://playground.tensorflow.org/#activation=tanh&batchSize=10&dataset=circle&regDataset=reg-plane&learningRate=0.03&regularizationRate=0&noise=0&networkShape=4,2&seed=0.99735&showTestData=false&discretize=false&percTrainData=50&x=true&y=true&xTimesY=false&xSquared=false&ySquared=false&cosX=false&sinX=false&cosY=false&sinY=false&collectStats=false&problem=classification&initZero=false&hideText=false

 

激活函数 

1.基本概念

神经网络中的每个神经元节点接受上一层神经元的输出值作为本神经元的输入值,并将输入值传递给下一层,输入层神经元节点会将输入属性值直接传递给下一层(隐层或输出层)。在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为激活函数。

2.几种常用函数 

①sigmod函数

函数公式和图表如下图

sigmod函数公式

特点:
它能够把输入的连续实值变换为0和1之间的输出,特别的,如果是非常大的负数,那么输出就是0;如果是非常大的正数,输出就是1.
缺点:

 sigmod函数要进行指数运算,这个对于计算机来说是比较慢的。

在深度神经网络中梯度反向传递时导致梯度爆炸和梯度消失,其中梯度爆炸发生的概率非常小,而梯度消失发生的概率比较大。

Sigmoid 的 output 不是0均值(即zero-centered)。

②tanh函数

tanh函数公式和曲线如下

tanh函数公式

 一般二分类问题中,隐藏层用tanh函数,输出层用sigmod函数。

③ReLU函数

ReLU函数公式和曲线如下

relu函数公式

④Leaky ReLU函数(PReLU)

prelu公式

前馈神经网络

下图为简单的前馈神经网络图:

多层前馈神经网络 

神经网络中涉及的多个概念:

L:表示神经网络的层数
m^l:表示第 l 层神经元个数
f_l(.):表示第 l 层神经元的激活函数
W^l:表示第 l-1 层到第 l 层的权重矩阵
b^l:表示第 l-1 层到第 l 层的偏置
z^l:表示第 l 层神经元的净输入(净活性值)
a^l:表示第l层的神经元输出(活性值)

反向传播算法流程

图片名称

标签:输出,false,函数,前馈,神经网络,深度,输入,神经元
来源: https://blog.csdn.net/qq_58964020/article/details/122500527

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有