ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

2018-8-10神经网络优化问题的学习

2019-05-23 09:43:38  阅读:253  来源: 互联网

标签:10 description gradient 梯度 直方图 here 神经网络 2018 enter


2018-8-10神经网络优化问题的学习

梁子20163933

optimzation

random search

这是一种很坏的方法,这里就不进行介绍。略过。

gradient (偏导组成的向量)

negative gradient is the direction of the deepest descent direction.
梯度方向的反方向就是下降最快的方向。

梯度是一种一阶线性逼近。有限差分法用来对梯度进行计算(逼近)。
enter description here
如上图所述,将权重中的某一个分量做微小变化,利用损失值的变化量除以分量的变化量就可以得到该分量的偏导值。
但是这样的缺点是计算量太大,速度会非常慢。
其实只要使用dL/dW=x,也就是把x的数值当做偏导值就可以了。。。。

gradient descent(梯度下降法)

enter description here
enter description here
这个之前学习过,不多说。

SGD(stochastic gradient descent)

enter description here
enter description here
这个之间也讲过,主要是一个minibatch的思想。此处只是走一走过场。

image feature

在神经网络大量应用之前,一般都不是直接将图像的像素传入线性分类器,而是先提取其特征,之后将之传入分类器。
提取特征有很多例子;

color histogram(颜色直方图)

enter description here
enter description here
如图所示,颜色直方图指对一张图片分别统计其在不同的颜色类(频谱,光谱)中的像素个数得到的直方图。

HoG(Histogram of Oriented Gradients)方向梯度直方图

enter description here
enter description here
主要提出思想是:认为人眼能够识别图像很大一部分来自于边缘,于是可以对图像进行分块(图中是8 * 8),求出每一小块的梯度特征(一个像素一个梯度),并将所有的梯度分为9类(也就是图中的9bins),统计之后得到其梯度直方图;这样一个8 * 8的小块内就会拥有9个数字来表征这个小块的梯度特征,将所有的数字组成向量就可以得到HOG特征了。

Bag of Words(词袋)

enter description here
enter description here
这个灵感来自于NLP,指在NLP中对一个句子运用特征向量进行特征表示,可以是统计每个单词出现的频率。而在图片里,可以对一堆图片都切成很小的块,并且对每一块进行主要颜色的统计,得到图片的直方图,直方图中的每个颜色的数量作为特征向量。

标签:10,description,gradient,梯度,直方图,here,神经网络,2018,enter
来源: https://www.cnblogs.com/liangzid/p/10910067.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有