ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

用Numpy搭建神经网络第二期:梯度下降法的实现

2019-06-04 08:48:36  阅读:302  来源: 互联网

标签:第二期 函数 梯度 下降 神经网络 inMat np xMat Numpy


https://www.toutiao.com/a6696699352833851908/

 

大数据文摘出品

作者:蒋宝尚

小伙伴们大家好呀~~用Numpy搭建神经网络,我们已经来到第二期了。第一期文摘菌教大家如何用Numpy搭建一个简单的神经网络,完成了前馈部分。

这一期,为大家带来梯度下降相关的知识点,和上一期一样,依然用Numpy实现梯度下降。在代码开始之前,先来普及一下梯度下降的知识点吧。

梯度下降:迭代求解模型参数值

第一期文章中提到过,最简单的神经网络包含三个要素,输入层,隐藏层以及输出层。关于其工作机理其完全可以类比成一个元函数:Y=W*X+b。即输入数据X,得到输出Y。

如何评估一个函数的好坏,专业一点就是拟合度怎么样?最简单的方法是衡量真实值和输出值之间的差距,两者的差距约小代表函数的表达能力越强。

这个差距的衡量也叫损失函数。显然,损失函数取值越小,原函数表达能力越强。

那么参数取何值时函数有最小值?一般求导能够得到局部最小值(在极值点处取)。而梯度下降就是求函数有最小值的参数的一种方法。

梯度下降数学表达式

比如对于线性回归,假设函数表示为hθ(x1,x2…xn)=θ0+θ1x1+..+θnxn,其中wi(i=0,1,2...n)为模型参数,xi(i=0,1,2...n)为每个样本的n个特征值。这个表示可以简化,我们增加一个特征x0=1,这样h(xo,x1,.…xn)=θ0x0+θ1x1+..+θnxn。同样是线性回归,对应于上面的假设函数,损失函数为(此处在损失函数之前加上1/2m,主要是为了修正SSE让计算公式结果更加美观,实际上损失函数取MSE或SSE均可,二者对于一个给定样本而言只相差一个固定数值):

 

用Numpy搭建神经网络第二期:梯度下降法的实现

 

 

算法相关参数初始化:主要是初始化θ0,θ1..,θn,我们比较倾向于将所有的初始化为0,将步长初始化为1。在调优的时候再进行优化。

对θi的梯度表达公式如下:

 

用Numpy搭建神经网络第二期:梯度下降法的实现

 

 

用步长(学习率)乘以损失函数的梯度,得到当前位置下降的距离,即:

 

用Numpy搭建神经网络第二期:梯度下降法的实现

 

 

梯度下降法的矩阵方式描述

对应上面的线性函数,其矩阵表达式为:

 

用Numpy搭建神经网络第二期:梯度下降法的实现

 

 

损失函数表达式为:

 

用Numpy搭建神经网络第二期:梯度下降法的实现

 

 

其中Y为样本的输出向量。

梯度表达公式为:

 

用Numpy搭建神经网络第二期:梯度下降法的实现

 

 

还是用线性回归的例子来描述具体的算法过程。损失函数对于向量的偏导数计算如下:

 

用Numpy搭建神经网络第二期:梯度下降法的实现

 

 

迭代:

 

用Numpy搭建神经网络第二期:梯度下降法的实现

 

 

两个矩阵求导公式为:

 

用Numpy搭建神经网络第二期:梯度下降法的实现

 

 

用Python实现梯度下降

import pandas as pdimport numpy as np

导入两个必要的包。

def regularize(xMat): inMat=xMat. copy() inMeans=np. mean(inMat, axis=0) invar=np. std(inMat, axis=0) inMat=(inMat-inMeans)/invar return inMat

定义标准化函数,不让过大或者过小的数值影响求解。

定义梯度下降函数:

def BGD_LR(data alpha=0.001, maxcycles=500): xMat=np. mat(dataset) yMat=np. mat(dataset).T xMat=regularize(xMat) m,n=xMat.shape weights=np. zeros((n,1)) for i in range(maxcycles): grad=xMat.T*(xMat * weights-yMat)/m weights=weights -alpha* grad return weights

其中,dataset代表输入的数据,alpha是学习率,maxcycles是最大的迭代次数。

即返回的权重就是说求值。np.zeros 是初始化函数。grad的求取是根据梯度下降的矩阵求解公式。

本文参考B站博主菊安酱的机器学习。感兴趣的同学可以打开链接观看视频哟~

https://www.bilibili.com/video/av35390140

好了,梯度下降这个小知识点就讲解完了,下一期,我们将第一期与第二期的知识点结合,用手写数字的数据完成一次神经网络的训练。

标签:第二期,函数,梯度,下降,神经网络,inMat,np,xMat,Numpy
来源: https://blog.csdn.net/weixin_42137700/article/details/90710080

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有