ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

4、交叉熵与softmax

2021-12-30 16:36:39  阅读:148  来源: 互联网

标签:交叉 信息量 散度 KL 0.1 分布 softmax


1、交叉熵的来源

一条信息的信息量大小和它的不确定性有很大的关系,一句话如果需要很多外部信息才能确定,我们就称这句话的信息量比较大。比如你听到“云南西双版纳下雪了”,那你需要去看天气预报、问当地人等等查证(因为云南西双版纳从没下过雪)。相反,如果和你说“人一天要吃三顿饭”,那这条信息的信息量就很小,因为这条信息的确定性很高。

将事件x_0的信息量定义如下(其中p(x_0)表示事件x_0发生的概率):

是表示随机变量不确定的度量,是对所有可能发生的事件产生的信息量的期望。公式如下:

相对熵又称KL散度,用于衡量对于同一个随机变量x的两个分布p(x)和q(x)之间的差异。在机器学习中,p(x)常用于描述样本的真实分布,例如[1,0,0,0]表示样本属于第一类,而q(x)则常常用于表示预测的分布,例如[0.7,0.1,0.1,0.1]。显然使用q(x)来描述样本不如p(x)准确,q(x)需要不断地学习来拟合准确的分布p(x)。 KL散度的公式如下:

KL散度的值越小表示两个分布越接近。

我们将KL散度的公式进行变形,得到: 前半部分就是p(x)的熵,后半部分就是我们的交叉熵 机器学习中,我们常常使用KL散度来评估predict和label之间的差别,但是由于KL散度的前半部分是一个常量,所以我们常常将后半部分的交叉熵作为损失函数,其实二者是一样的。   分类问题中,loss函数不使用MSE          

标签:交叉,信息量,散度,KL,0.1,分布,softmax
来源: https://www.cnblogs.com/ljygoodgoodstudydaydayup/p/15749386.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有