标签:function 函数 回归 损失 学习 笔记 variable output 模型
Regression(回归):predict continuous valued output.
步骤一:hypothesis function model
步骤二:模型评估(loss function损失函数)(cost function代价函数)
步骤三:模型优化。如何自适应优化的模型。(gradient descent梯度下降算法,normal equation正规方程)
linear regression model:
m = number of training examples
x’s = ‘input’ variable/features
y’s =‘output’ variable/‘target’ variable
(x,y) = one training example
L(f)为损失函数,
在线性回归模型中,损失函数为实际值y减去预测值h(θ)的平方在迭代求和,损失函数的目的就是找最优(损失函数的output为最小的时候)
梯度下降算法需要先给参数θ(比如θ0=0,θ1=0),再进行迭代改变θ使代价函数或者损失函数J(θ)减小到最小值。
缺点:会陷入局部优化,但是在线性回归没有局部优化问题。
Model Selection. 如果训练数据的特征值只有一个,如果拟合效果不好可以考虑一元n次模型,设计多个θj。一个越复杂的模型在训练集中会得到更低的误差,但在测试集中会得到不好的结果。这就是过拟合(overfitting)
Regularization(正则化):
标签:function,函数,回归,损失,学习,笔记,variable,output,模型 来源: https://blog.csdn.net/coiqvn/article/details/120746445
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。