ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

神经网络基础以及激活函数,以及梯度下降

2021-08-26 23:35:07  阅读:215  来源: 互联网

标签:函数 以及 梯度 sigmoid reLU 神经网络 dZ 值域 激活


1.神经网络分为三层:输入层,隐藏层以及输出层

2.a^[0]表示输入层,a^[1]表示隐藏层,a^[2]表示输出层,在隐藏层还要表示

则呈现a^[1]1,a^[1]2,a^[1]3

3.m个训练集向量化

Z^[1] = W^[1]X+b
A^[1] = 符号(Z^[1])
Z^[2] = W^[2]A^[1]+b^[2]
a^[2] = 符号(Z^[2])#sigmoid()激活函数
for i in m:
Z^[1](i) = W^1]X^(i)+b
A^[1](i) = 符号(Z^[1](i))
Z^[2](i) = W^[2]A^[1][i]+b^[2]
a^[2](i) = 符号(Z^[2](i))

4.矩阵的从左至右的行表示不同的样本矩阵的列从上至下表示样本的不同属性

5.sigmoid函数就是激活函数,这个函数的值域在0-1之间

sigmoid() = 1/1+e^(-z),主要用于二分类问题

6.还有一个更好的激活函数tanh函数,值域在-1-1之间,是sigmoid函数通过平移之后得到的函数,g(z) = tanh(z) = e^(z)-e^(-z)/e^(z)+e^(-z)任何场合都可以使用,处理二分类问题

7.最常用的默认激活函数reLU,当定义域小于0的时候,它的导数为0,当定义域大于0的时候,它的值域是一条直线,reLU = max(0,z)

8.带泄露reLU激活函数,当它的定义域小于0的时候,它会是趋近于0的函数

9.激活函数主要用于输出层

10.正向传播和反向传播

#正向传播:
Z^[1] = W^[1]X+b*[1]
A^[1] = g^[1](Z^[1])
Z^[1] = W^[2]A^[1]+b^[2]
A^[2] = g^[2](Z^^[2])+b^[2]
#反向传播:
dZ^[2] = A^[2] - Y
dw^[2] = 1/m*dZ^[2]*A^[1]T
db^[2] = 1/m*np.sum(dZ^[2],axis = 1,keepdoms = True)
dZ^[2] = W^[2]dZ^[2]*g^[1](Z^[1])
dW^[2] = 1/m*dZ^[1]X^T
db^[1] = 1/m*np.sum

标签:函数,以及,梯度,sigmoid,reLU,神经网络,dZ,值域,激活
来源: https://www.cnblogs.com/kzf-99/p/15192022.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有