ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

机器学习(周志华)学习笔记(一)

2022-03-19 16:02:19  阅读:163  来源: 互联网

标签:周志华 误差 泛化 样本 笔记 学习 算法 度量


目录

学习教材

学习内容

一、绪论

1.1 基本术语

1.2 假设空间

1.3 归纳偏好

二、 模型评估与选择

2.1 经验误差

2.2 评估方法

2.3 性能度量

2.4 方差与偏差

学习时间


学习教材

  • 机器学习(周志华)

学习内容

一、绪论

1.1 基本术语

数据集:

示例:关于一个事件或对象的描述。(Xi)

特征向量:

样本的维数:用于描述一个样本的属性个数。

标记:关于示例结果的信息。(Yi)

样例:标记信息的示例。

聚类:将训练集分成若干组。

泛化能力:学得模型适用于新样本得能力。

分类任务回归任务的区别:分类任务用于预测离散值,回归任务用于预测连续值。

监督学习无监督学习的区别:训练数据是否拥有标记信息。其中分类和回归是监督学习的代表,聚类是无监督学习的代表。

1.2 假设空间

归纳:从具体事实中归结出一般性规律,从特殊到一般的“泛化”过程。

演绎:从基础原理推演出具体状况,从一般到特殊的“特化”过程。

1.3 归纳偏好

(归纳)偏好:机器学习算法在学习过程中对某种类型假设的偏好。

奥卡姆剃刀(Occam's razor):若有多个假设与观察一致,则选择最简单的那个。

NFL定理:所有学习算法在考虑所有潜在的问题时的期望值都相同。

二、 模型评估与选择

2.1 经验误差

错误率:分类错误的样本数占样本总数的比例。

精度=1-错误率。

误差:学习器的实际预测输出与样本的真实输出之间的差异。

训练误差/经验误差:学习器在训练集上的误差。

泛化误差:在新样本上的误差。

2.2 评估方法

留出法:直接将数据集划分为两个互斥的集合。通常采用“分层采样”

交叉验证法:先将数据集划分为k个大小相似的互斥子集(从数据集中分层采样得到)。每用k-1个子集的并集作为训练集,余下的子集作为测试集,从而进行k次训练和测试,最终返回k个测试结果的均值。k最常用的取值是10。 

留一法:m个样本划分为m个子集——每个子集包含一个样本。 评估结果比较准确,但在数据集较大时,计算量非常大。

验证集:模型评估与选择中用于评估测试的数据集。(同一算法不同模型对比)

测试集:对比不同算法的泛化性能。(不同算法对比)

2.3 性能度量

回归任务红最常用的性能度量是均方误差

P-R图:以查准率作为纵轴,查全率作为横轴做出的图。其中若一个学习器的P-R曲线被另一个学习器的曲线完全包住,则可断言后者的性能优于前者。当两个曲线有交叉时:平衡点(BEP)度量:利用平衡点对应的查全率进行比较;F1度量:根据对查准率和查全率的而重视程度不同而用的度量方法。

ROC曲线:真正例率(TPR)为纵轴,假正例率(FPR)为横轴。

TPR= \frac{TP}{TP+FN}

FPR=\frac{FP}{TN+FP}

        * TP:真正例     FN:假反例     FP:假正例     TN:真反例

2.4 方差与偏差

以回归任务为例子:

偏差:期望输出与真是标记的差别。刻画了学习算法本身的拟合能力。

方差:同样训练集的变动造成学习性能的变化。刻画了数据扰动所造成的影响。

噪声:当前任务上任何学习算法所能达到的期望泛化误差的下限。刻画的学习本身的难度。

泛化误差可分解为偏差、方差和噪声之和。


学习时间

14.30-15:53

标签:周志华,误差,泛化,样本,笔记,学习,算法,度量
来源: https://blog.csdn.net/coral_55u/article/details/123594500

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有