ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

《吴恩达机器学习》学习笔记006_应用机器学习的建议和机器学习系统的设计

2020-12-01 20:34:52  阅读:177  来源: 互联网

标签:误差 吴恩达 机器 训练 方差 模型 学习 算法 拟合


http://www.ai-start.com/ml2014/html/week6.html

应用机器学习的建议(Advice for Applying Machine Learning)

决定下一步做什么

1、获得更多的训练样本——通常是有效的,但代价较大,下面的方法也可能有效,可考虑先采用下面的几种方法。

2、尝试减少特征的数量

3、尝试获得更多的特征

4、尝试增加多项式特征

5、尝试减少正则化程度$\lambda$

6、尝试增加正则化程度$\lambda$

评估一个假设

为了检验算法是否过拟合,我们将数据分成训练集和测试集,通常用70%的数据作为训练集,用剩下30%的数据作为测试集。很重要的一点是训练集和测试集均要含有各种类型的数据,通常我们要对数据进行“洗牌”,然后再分成训练集和测试集。
在这里插入图片描述
测试集评估在通过训练集让我们的模型学习得出其参数后,对测试集运用该模型,我们有两种方式计算误差:

对于线性回归模型,我们利用测试集数据计算代价函数$J$
对于逻辑回归模型,我们除了可以利用测试数据集来计算代价函数外:
$$ J_{test}{(\theta)} = -\frac{1}{{m}{test}}\sum\limits{i=1}{m_{test}}\log{h_{\theta}(x{(i)}{test})}+(1-{y{(i)}{test}})\log{h_{\theta}(x{(i)}_{test})}$$

误分类的比率,对于每一个测试集样本,计算:
在这里插入图片描述
然后对计算结果求平均。

模型选择和交叉验证集

假设我们要在10个不同次数的二项式模型之间进行选择:
在这里插入图片描述
显然越高次数的多项式模型越能够适应我们的训练数据集,但是适应训练数据集并不代表着能推广至一般情况,我们应该选择一个更能适应一般情况的模型。我们需要使用交叉验证集来帮助选择模型。

即:使用60%的数据作为训练集,使用 20%的数据作为交叉验证集,使用20%的数据作为测试集
在这里插入图片描述
模型选择的方法为:

使用训练集训练出10个模型

用10个模型分别对交叉验证集计算得出交叉验证误差(代价函数的值)

选取代价函数值最小的模型

用步骤3中选出的模型对测试集计算得出推广误差(代价函数的值)

Train/validation/test error

Training error:

$J_{train}(\theta) = \frac{1}{2m}\sum_\limits{i=1}{m}(h_{\theta}(x{(i)})-y{(i)})2$

Cross Validation error:

$J_{cv}(\theta) = \frac{1}{2m_{cv}}\sum_\limits{i=1}{m}(h_{\theta}(x{(i)}{cv})-y{(i)}{cv})2$

Test error:

$J_{test}(\theta)=\frac{1}{2m_{test}}\sum_\limits{i=1}{m_{test}}(h_{\theta}(x{(i)}{cv})-y{(i)}{cv})2$

偏差和方差诊断

当你运行一个学习算法时,如果这个算法的表现不理想,那么多半是出现两种情况:要么是偏差比较大,要么是方差比较大。换句话说,出现的情况要么是欠拟合,要么是过拟合问题。那么这两种情况,哪个和偏差有关,哪个和方差有关,或者是不是和两个都有关?搞清楚这一点非常重要,因为能判断出现的情况是这两种情况中的哪一种。其实是一个很有效的指示器,指引着可以改进算法的最有效的方法和途径。在这段视频中,我想更深入地探讨一下有关偏差和方差的问题,希望你能对它们有一个更深入的理解,并且也能弄清楚怎样评价一个学习算法,能够判断一个算法是偏差还是方差有问题,因为这个问题对于弄清如何改进学习算法的效果非常重要,高偏差和高方差的问题基本上来说是欠拟合和过拟合的问题。
在这里插入图片描述
我们通常会通过将训练集和交叉验证集的代价函数误差与多项式的次数绘制在同一张图表上来帮助分析:
在这里插入图片描述
Bias/variance

Training error: $J_{train}(\theta) = \frac{1}{2m}\sum_\limits{i=1}{m}(h_{\theta}(x{(i)})-y{(i)})2$

Cross Validation error: $J_{cv}(\theta) = \frac{1}{2m_{cv}}\sum_\limits{i=1}{m}(h_{\theta}(x{(i)}{cv})-y{(i)}{cv})2$
在这里插入图片描述
对于训练集,当 $d$ 较小时,模型拟合程度更低,误差较大;随着 $d$ 的增长,拟合程度提高,误差减小。

对于交叉验证集,当 $d$ 较小时,模型拟合程度低,误差较大;但是随着 $d$ 的增长,误差呈现先减小后增大的趋势,转折点是我们的模型开始过拟合训练数据集的时候。

如果我们的交叉验证集误差较大,我们如何判断是方差还是偏差呢?根据上面的图表,我们知道:
在这里插入图片描述
训练集误差和交叉验证集误差近似时:偏差/欠拟合

交叉验证集误差远大于训练集误差时:方差/过拟合

偏差和方差

https://www.zhihu.com/question/27068705

在这里插入图片描述
在这里插入图片描述

https://www.zhihu.com/question/20448464

偏差:描述的是预测值(估计值)的期望与真实值之间的差距。偏差越大,越偏离真实数据,如下图第二行所示。

方差:描述的是预测值的变化范围,离散程度,也就是离其期望值的距离。方差越大,数据的分布越分散,如下图右列所示。

正则化和偏差/方差

在我们在训练模型的过程中,一般会使用一些正则化方法来防止过拟合。但是我们可能会正则化的程度太高或太小了,即我们在选择λ的值时也需要思考与刚才选择多项式模型次数类似的问题。

在这里插入图片描述
选择$\lambda$的方法为:

1、使用训练集训练出12个不同程度正则化的模型
2、用12个模型分别对交叉验证集计算的出交叉验证误差
3、选择得出交叉验证误差最小的模型
4、运用步骤3中选出模型对测试集计算得出推广误差,我们也可以同时将训练集和交叉验证集模型的代价函数误差与λ的值绘制在一张图表上:
在这里插入图片描述
当 $\lambda$ 较小时,训练集误差较小(过拟合)而交叉验证集误差较大

随着 $\lambda$ 的增加,训练集误差不断增加(欠拟合),而交叉验证集误差则是先减小后增加

学习曲线

学习曲线就是一种很好的工具,我经常使用学习曲线来判断某一个学习算法是否处于偏差、方差问题。学习曲线是学习算法的一个很好的合理检验(sanity check)。学习曲线是将训练集误差和交叉验证集误差作为训练集样本数量($m$)的函数绘制的图表。

即,如果我们有100行数据,我们从1行数据开始,逐渐学习更多行的数据。思想是:当训练较少行数据的时候,训练的模型将能够非常完美地适应较少的训练数据,但是训练出来的模型却不能很好地适应交叉验证集数据或测试集数据。

在这里插入图片描述
在这里插入图片描述
如何利用学习曲线识别高偏差/欠拟合:作为例子,我们尝试用一条直线来适应下面的数据,可以看出,无论训练集有多么大误差都不会有太大改观:
在这里插入图片描述
也就是说在高偏差/欠拟合的情况下,增加数据到训练集不一定能有帮助。

如何利用学习曲线识别高方差/过拟合:假设我们使用一个非常高次的多项式模型,并且正则化非常小,可以看出,当交叉验证集误差远大于训练集误差时,往训练集增加更多数据可以提高模型的效果。
在这里插入图片描述
也就是说在高方差/过拟合的情况下,增加更多数据到训练集可能可以提高算法效果。

决定下一步做什么

提出的六种可选的下一步,让我们来看一看我们在什么情况下应该怎样选择:

1、获得更多的训练样本——解决高方差

2、尝试减少特征的数量——解决高方差

3、尝试获得更多的特征——解决高偏差

4、尝试增加多项式特征——解决高偏差

5、尝试减少正则化程度λ——解决高偏差

6、尝试增加正则化程度λ——解决高方差

神经网络的方差和偏差:

在这里插入图片描述
使用较小的神经网络,类似于参数较少的情况,容易导致高偏差和欠拟合,但计算代价较小。使用较大的神经网络,类似于参数较多的情况,容易导致高方差和过拟合,虽然计算代价比较大,但是可以通过正则化手段来调整而更加适应数据。

通常选择较大的神经网络并采用正则化处理会比采用较小的神经网络效果要好。

对于神经网络中的隐藏层的层数的选择,通常从一层开始逐渐增加层数,为了更好地作选择,可以把数据分为训练集、交叉验证集和测试集,针对不同隐藏层层数的神经网络训练神经网络, 然后选择交叉验证集代价最小的神经网络。

机器学习系统的设计

构建一个学习算法的推荐方法为:

1、从一个简单的能快速实现的算法开始,实现该算法并用交叉验证集数据测试这个算法。
2、绘制学习曲线,决定是增加更多数据,或者添加更多特征,还是其他选择。
3、进行误差分析:人工检查交叉验证集中我们算法中产生预测误差的样本,看看这些样本是否有某种系统化的趋势。

类偏斜的误差度量

例如我们希望用算法来预测癌症是否是恶性的,在我们的训练集中,只有0.5%的实例是恶性肿瘤。假设我们编写一个非学习而来的算法,在所有情况下都预测肿瘤是良性的,那么误差只有0.5%。然而我们通过训练而得到的神经网络算法却有1%的误差。这时,误差的大小是不能视为评判算法效果的依据的。

查准率(Precision)和查全率(Recall)我们将算法预测的结果分成四种情况:

1、正确肯定(True Positive,TP):预测为真,实际为真
2、正确否定(True Negative,TN):预测为假,实际为假
3、错误肯定(False Positive,FP):预测为真,实际为假
4、错误否定(False Negative,FN):预测为假,实际为真

则:查准率=TP/(TP+FP)。例,在所有我们预测有恶性肿瘤的病人中,实际上有恶性肿瘤的病人的百分比,越高越好。

查全率=TP/(TP+FN)。例,在所有实际上有恶性肿瘤的病人中,成功预测有恶性肿瘤的病人的百分比,越高越好。

这样,对于我们刚才那个总是预测病人肿瘤为良性的算法,其查全率是0。
在这里插入图片描述

标签:误差,吴恩达,机器,训练,方差,模型,学习,算法,拟合
来源: https://www.cnblogs.com/stark0x01/p/14069316.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有