标签:分析 因变量 人工智能 必备 回归方程 残差 数学 回归 自变量
https://www.bilibili.com/video/BV1F7411x7MQ
对于分析两个或者两个以上变量的关系而言,回归分析比相关分析更进一步了。
一元回归就是一个因变量,一个自变量,多元回归就是多个自变量。下面的Y对应多个自变量X,就是多元线性回归。
下面这个回归方程是2阶的非线性回归方程。
下面是根据一些数据点构建回归方程:
紫色线就是构建出来的回归方程,有个这个方程,就可以预测出来更多的大致的值。方程表示的这条线不可能严格通过每一个数据点,我们希望每个样本点的残差越小越好。
假如知道一个人的体重(因变量),也可以根据回归方程预测这个人的身高(自变量)。
对于某一个数据点而言,观测值和估计值之间的差值叫做残差。
标签:分析,因变量,人工智能,必备,回归方程,残差,数学,回归,自变量 来源: https://www.cnblogs.com/yibeimingyue/p/14879595.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。