ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

Gradient descent for neural networks

2022-04-04 00:09:50  阅读:185  来源: 互联网

标签:frac descent limits Gradient db dZ mathop partial networks


Gradient descent for neural networks

还是针对之前概览中的这个网络,并且考虑它做的是binary classification;

image-20220403214655811

则我们现在来讨论其中的梯度下降方法,

\[Parameters(参数): \mathop{W^{[1]}}\limits_{(n^{[1]},n^{[0]})}, \mathop{b^{[1]}}\limits_{(n^{[1]},1)}, \mathop{W^{[2]}}\limits_{(n^{[2]},n^{[1]})}, \mathop{b^{[2]}}\limits_{(n^{[2]},1)} \\n_x=n^{[0]},n^{[1]},n^{[2]}=1 \\Cost\;function:J(W^{[1]},b^{[1]},W^{[2]},b^{[2]}) =\frac{1}{m}\sum^{n}_{i=1}\mathcal{L}(\mathop{\hat{y}}\limits_{\uparrow_{a^{[2]}}},y) \\Gradient\;descent: \\Repeat:Compute\;predictions\;(\hat{y}^{(i)},i=1,\cdots ,m)\\ \begin{array}{c} dW^{[1]} = \frac{ \partial J}{ \partial W^{[1]}}, db^{[1]} = \frac{ \partial J}{ \partial b^{[1]}},\\ dW^{[2]} = \frac{ \partial J}{ \partial W^{[2]}}, db^{[2]} = \frac{ \partial J}{ \partial b^{[2]}},\\ W^{[1]}: = W^{[1]}-\alpha dW^{[1]}\\ b^{[1]}: = b^{[1]}-\alpha db^{[1]}\\ W^{[2]}: = W^{[2]}-\alpha dW^{[2]}\\ b^{[2]}: = b^{[2]}-\alpha db^{[2]}\\ \end{array} \\(注意:\alpha是学习率,[:=]也可以写成[=],只不过为了更好表示迭代) \]

那么问题现在显而易见:我们如何去求偏导数呢?

\[Formal\;propagation:\\ Z^{[1]}=W^{[1]}X+b^{[1]}\\ A^{[1]}=g^{[1]}(Z^{[1]})\\ Z^{[2]}=W^{[2]}A^{[1]}+b^{[2]}\\ A^{[2]}=g^{[2]}(Z^{[2]})=\sigma(Z^{[2]}) \]

\[Back\;propagation:\\ dZ^{[2]}=A^{[2]}-Y \quad其中Y=[y^{[1]},y^{[2]},\cdots,y^{[m]}]\\ dW^{[2]}=\frac{1}{m}dZ^{[2]}A^{[1]T}\\ db^{[2]}=\frac{1}{m}np.sum(dZ^{[1]},axis=1,\mathop{keepdims=True}\limits^{to\;maintain\;db^{[2]}\;isn't\;(n^{[2]},)\;but\;(n^{[2]},1)})\\ dZ^{[1]}=\mathop{W^{[2]T}dZ^{[2]}}\limits_{(n^{[1]},m)}*\mathop{g^{[1]'}(Z^{[1]})}\limits_{(n^{[1]},m)}\quad*是对应元素相乘\\ dW^{[1]}=\frac{1}{m}dZ^{[1]}X^T\\ db^{[1]}=\frac{1}{m}np.sum(dZ^{[1]},axis=1,\mathop{keepdims=True}\limits^{to\;maintain\;db^{[1]}\;isn't\;(n^{[1]},)\;but\;(n^{[1]},1)}) \]


标签:frac,descent,limits,Gradient,db,dZ,mathop,partial,networks
来源: https://www.cnblogs.com/Linkdom/p/16098092.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有