ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

Dice Loss

2021-02-27 14:02:37  阅读:1036  来源: 互联网

标签:Loss 骰子 right frac Dice sum 损失 left


DiceLoss介绍

Desc: Generalised Dice overlap as a deep learning loss function for highly unbalanced segmentations; 骰子损失
Tags: 损失函数, 骰子损失

资源链接:https://zhuanlan.zhihu.com/p/50539347

骰子损失:

目录

1、不平衡数据的损失函数

​ 由于损失函数在解决类别不平衡问题上的潜力,本文比较了损失函数所做的工作。所有损失函数都在二元分类(前景与背景)公式下进行了分析,因为它代表了类别不平衡的量化最简单设置。请注意,将这些损失函数中的一些公式化为一类问题将在一定程度上缓解不平衡问题,但结果不会轻易推广到多个类。

​ 令 \(R\)前景分割(金标准),它的体素值为\(r_{n}\);令\(P\) 是前景label的预测概率图,背景概率是\(1 - P\),概率图是面向于图像中的第\(n\)个体素\(p_{n}\)而言。

2、加权交叉熵损失WCE

二分类的交叉熵损失:

\[WCE=\frac{1}{-N}\sum_{n=1}^{N}wr_{n}log\left ( p_{n} \right ) + \left ( 1 - r_{n} \right )log\left ( 1 - p_{n} \right ) \]

这个公式看起来是不是有点晕?为什么是这的公式?下面我们先简单介绍一下为什么是这样的:

  • 首先,上面的公式来源于统计学的极大似然估计;
  • 其次,对于二分类问题,我们可以使用\(p^{r}(1-p)^{1-r}\)来表示似然函数,去对数即可得到上面的结果;
  • 为什么要使用似然函数?因为我们认为已经发生的事情是大概率事件,这里也为后面使用\(pred\bigcap gt\)埋下伏笔。
  • 注意去对数之后的求和符号是因为,一般情况下变量是连续的,而实际使用过程中是离散的,这里就是使用微分的思想。

其中的加权参数\(w\)是:

\[\frac{N-\sum_{n}p_{n}}{\sum_{n}p_{n}} \]

这里实际上是将正例与负例的占比进行交叉加权,实现正负样本损失重要度一样,但是这样真的合理吗?加权交叉熵可以推广到两类以上。

3、Dice Loss 骰子损失

当我们的金标准或GT对象是可用的时候,骰子损失被广泛用于度量分割的表现。二分类的骰子损失函数为:

\[DL_{2}=1-\frac{\sum_{n=1}^{N}p_{n}r_{n}+\varepsilon }{\sum_{n=1}^{N}p_{n} + r_{n}+\varepsilon}-\frac{\sum_{n=1}^{N}\left (1 - p_{n}  \right )\left ( 1- r_{n}  \right )+\varepsilon}{\sum_{n=1}^{N}2 - p_{n} - r_{n}+\varepsilon} \]

这里的前景特征图R,概率图P实际上对应的是一个对象,即对分割区域的预测,那么两者应该是差不多的吧,即差异性应该非常小才对。

  • 前景:上式右边第二项,我们可以看作金标准与概率图两者在前景预测的交集比上两者在前景预测上的并集。如果两者完全一样,这一项应该为\(\frac{1}{2}\),对应的后景相也是\(\frac{1}{2}\),则损失为0。

  • 后景上式右边第三项,参考前景即得此项是对背景的预测性能。

4、敏感性和特异性 Sensitivity and specificity(SS)

在评估分割结果时,敏感性和特异性是两个备受重视的特征。将其作为损失函数可记为:

\[SS=\lambda \frac{\sum_{n=1}^{N}\left ( r_{n} - p_{n} \right )^{2}r_{n}}{\sum_{n=1}^{N}r_{n} + \varepsilon }+\left ( 1-\lambda  \right )\frac{\sum_{n=1}^{N}\left ( r_{n} - p_{n} \right )^{2}\left (1 -r_{n}  \right )}{\sum_{n=1}^{N}\left (1 - r_{n}  \right ) + \varepsilon } \]

参数\(\lambda\)是平衡敏感性与特异性的参数,我们默认设置其为0.05。

5、广义骰子损失 Generalized Dice Loss(GDL)

​ Crum等人[2]提出了广义Dice分数(GDS)作为一种用单一分数评价多类分割的方法,但尚未用于判别模型训练。我们建议使用GDL作为训练深度卷积神经网络的损失函数。计算方式为:

\[GDL=1 - 2\times \frac{\sum_{l=1}^{2}w_{l}\sum_{n}r_{ln}p_{ln}}{\sum_{l=1}^{2}w_{l}\sum_{n}r_{ln} + p_{ln}} \]

当\(w_{l}=1 / \left ( \sum_{n=1}^{N} r_{ln}\right )^{2}\)时,,记\(GDL\)为\(GDL_{v}\)。每个标签的贡献通过其体积的倒数进行校正,从而减少区域大小和骰子分数之间众所周知的相关性。

标签:Loss,骰子,right,frac,Dice,sum,损失,left
来源: https://www.cnblogs.com/dan-baishucaizi/p/14455495.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有