ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

【每日一更】<吴恩达-机器学习>

2021-12-14 23:03:24  阅读:198  来源: 互联网

标签:吴恩达 机器 缩放 梯度 每日 标准化 学习 归一化 multiple


目录

一、Linear Regression with multiple variable - 多变量线性回归:

二、Gradient descent for multiple carables - 多变量梯度下降:

三、Feature Scaling - 特征缩放:

1.特征缩放方法: 

2.归一化和标准化的区别:

四、Learning rate - 学习率:


一、Linear Regression with multiple variable - 多变量线性回归:

Multivariate linear regression:    


二、Gradient descent for multiple carables - 多变量梯度下降:


三、Feature Scaling - 特征缩放:

1.特征缩放方法: 

有一些时候,只对数据进行中心化和缩放是不够的,还需对数据进行白化(whitening)处理来消除特征间的线性相关性。

2.归一化和标准化的区别:

  • 归一化(normalization):归一化是将样本的特征值转换到同一量纲下,把数据映射到[0,1]或者[-1, 1]区间内。
  • 标准化(standardization):标准化是将样本的特征值转换为标准值(z值),每个样本点都对标准化产生影响。

四、Learning rate - 学习率:

        首先我们简单回顾下什么是学习率,在梯度下降的过程中更新权重时的超参数,即下面公式中的\alpha:         \theta = \theta - \alpha \frac{\partial }{\partial \theta } J(\theta )
        学习率越低,损失函数的变化速度就越慢,容易过拟合。虽然使用低学习率可以确保我们不会错过任何局部极小值,但也意味着我们将花费更长的时间来进行收敛,特别是在被困在局部最优点的时候。而学习率过高容易发生梯度爆炸,loss振动幅度较大,模型难以收敛。下图是不同学习率的loss变化,因此,选择一个合适的学习率是十分重要的。

 

标签:吴恩达,机器,缩放,梯度,每日,标准化,学习,归一化,multiple
来源: https://blog.csdn.net/weixin_52058417/article/details/121918675

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有