ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

逻辑回归_吴恩达

2021-11-27 21:03:23  阅读:142  来源: 互联网

标签:吴恩达 梯度 回归 样本 逻辑 参数 拟合 线性


线性回归做分类不太理想

 

 新增最右边额外的红色点,会改变原来的线性回归的拟合直线从洋红改变到蓝色直线,运用原来的数据标准,分类出现了错误,使得新的拟合直线更糟糕

 

 而且分类问题通常只有0和1,但是线性回归会得出小于0或者大于1的值  就很奇怪,但是下面的逻辑回归值一定在【0,1】之间

所以用到了sigmoid function(Logistic function)

 

 

 之前线性回归用到的假设函数:(θ和x都是向量)

 

 两者结合起来就变成

 

 

 整合成一个公式

 

使用方法:

 

 

在已知样本x和参数θ的情况下,样本x属性正样本(y=1)和负样本(y=0)的条件概率

 

 简单分类例子(

 用训练集来拟合参数θ,然后就确定了决策边界(是假设本身及其参数的属性)

决策边界可以跟随高阶项,得到非常复杂的决策边界

自动选择参数θ

 

 

 按照之前学习的代价函数,代入sigmoid后,hθ就像左图一样有缺陷,我们目标是得到右图那样,可以使用梯度下降(或者其他)找到全局最优解,所以要稍微改变下原来的函数

 

 

 

 当真实值y=0的时候,预测值为0时候代价小,若是预测值为1的时候代价就很大很大,就会以此来惩罚算法。

现在已知:

 

 将cost函数合并成一个等式:

 

 min最小化后,得到某组拟合训练样本的参数θ,然后用新样本具有某些特征x,和得到的θ来output输出这样的预测(0,1),y=1的概率

 

 

 要弄清楚如何最小化Jθ:  梯度下降

推导可得:

 

 

 

用向量化可以直接一次把所有的θ全部更新

异:

与线性回归的区别:假设的定义不同。

同:

监测其是否收敛的方法相同。

特征缩放提高梯度下降收敛速度同样试试用

 

相关优化

共轭梯度法、BFGS、L-BFGS (直接调库使用)

 

 

 多元分类

(邮件是来自工作,朋友,家人还是其他)

 

 

 

先拟合出X个分类器(每个分类器都针对其中一种情况进行训练)

然后输入新数据x,分别进行预测,取hθ(x)最大的那个

 

标签:吴恩达,梯度,回归,样本,逻辑,参数,拟合,线性
来源: https://www.cnblogs.com/liujinmeng/p/15609698.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有