ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

DW吃瓜课程——机器学习理论知识笔记(二)

2021-08-24 02:00:39  阅读:248  来源: 互联网

标签:机器 sum textbf 学习 pmatrix 理论知识 吃瓜 线性 DW


本篇是针对经典教材《机器学习》及DataWhale小组出版的配套工具书《机器学习公式详解》的学习笔记,主要以查缺补漏为主,因此对于一些自己已经熟悉的概念和内容不再进行整理。由于水平实在有限,不免产生谬误,欢迎读者多多批评指正。

第三章 线性模型


基本概念

线性模型向量形式:

\[f(\textbf{x})=\textbf{w}^T\textbf{x}+b \]

其中\(\textbf{w}=(w_1;w_2;...;w_d)\)。

许多非线性模型可以在线性模型的基础上通过引入层级结构或高维映射而得。

线性回归中的“最小二乘法”就是试图通过确定w和b来构造一条直线,使所有样本到直线上的欧式距离之和\(E(w,b)=\sum_{i=1}^{m}(y_i-wx_i-b)^2\)最小(等同于使均方误差最小化)。我们将\(E(w,b)\)分别对w和b求导并使之为零可以得到二者最优解的闭式解,对于单变量线性回归,其闭式解为:

\[w=\frac{\sum_{i=1}^{m}y_i(x_i- \overline{x})}{\sum_{i=1}^{m}x_i^2-\frac{1}{m}(\sum_{i=1}^{m}x_i)^2} \]

\[b=\frac{1}{m}\sum_{i=1}^{m}(y_i-wx_i) \]

对于多元线性回归模型,情况要复杂一些。我们首先将数据集表示为一个矩阵\(\textbf{X}\),对应标签为\(\textbf{y}=(y_1;y_2;...;y_m)\):

\[\textbf{X}=\begin{pmatrix} x_{11}&x_{12}&...&x_{1d}&1 \\ x_{21}&x_{22}&...&x_{2d}&1 \\ ...&...&...&...&... \\ x_{m1}&x_{m2}&...&x_{md}&1 \end{pmatrix} =\begin{pmatrix} \textbf{x}_1^T&1 \\ \textbf{x}_2^T&1 \\ ...&1 \\ \textbf{x}_m^T&1 \end{pmatrix} \]

参考资料:

  1. 《机器学习》 周志华 著
  2. 《机器学习公式详解》 谢文睿 秦州 著
  3. https://www.bilibili.com/video/BV1Mh411e7VU?p=1 《机器学习公式详解》(南瓜书)与西瓜书公式推导直播合集

标签:机器,sum,textbf,学习,pmatrix,理论知识,吃瓜,线性,DW
来源: https://www.cnblogs.com/liugd-2020/p/15178483.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有