ICode9

精准搜索请尝试: 精确搜索
  • 理解机器学习的交叉熵为何用来表示损失函数2021-09-10 17:32:27

    目录 前言 一、损失函数 二、KL散度(相对熵) 三、信息论 1.信息量 2 熵    总结 前言 最近上课学习了交叉熵: 但是很不理解为什么要对概率进行-log处理,凭直观的感受1-x也能衡量误差,于是通过学习交叉熵的定义由来,进一步理解 一、损失函数 损失函数能量化所学模型的好坏,

  • KL算法2021-08-16 01:03:17

    Kernighan-Lin算法通过迭代改进进行划分,1970年提出,用于求解所有节点都有相同权重的二分图。该算法可以扩展到多元(k-way)且元胞可以是任意大小。 算法简介 KL算法用于电路所表征的图上,其中节点代表元胞,边代表元胞之间的链接。形式上,让图G(V,E)有|V| = 2n个节点,所有节点有相同的权重,

  • GAN 笔记2021-07-02 22:31:22

    GAN 计算过程 目标: 学习一个在x上的分布 p g p_g pg​ 定义: 随机噪声z作为输入: P

  • 信息熵,交叉熵与KL散度2021-06-29 22:03:28

    一、信息熵 若一个离散随机变量 \(X\) 的可能取值为 \(X = \{ x_{1}, x_{2},...,x_{n}\}\),且对应的概率为: \[p(x_{i}) = p(X=x_{i}) \]那么随机变量 \(X\) 的熵定义为: \[H(X) = -\sum_{i=1}^{n}p(x_{i})logp(x_{i}) \]规定当 \(p(x_{i})=0\) 时,\(H(X)=0\)。 通过公式可以看出,若随

  • 信息论基本概念2021-06-28 11:00:29

    基本概念 总结一些基本概念,包括自信息、信息熵、联合熵、条件熵、互信息、条件互信息以及交叉熵等等。 自信息 自信息是对某一事件发生时所带来的信息量做了一个量化。 信息是一个比较抽象的概念,一条信息所包含的信息量和它的不确定性有直接的关系, 而自信息就是把信息的度量等价于

  • 相对熵(KL散度)2021-06-14 16:02:54

    1. 概述 在信息论中,相对熵等价于两个概率分布信息熵的差值,若其中一个概率分布为真实分布,另一个为理论(拟合)分布,则此时相对熵等于交叉熵与真实分布的信息熵之差,表示使用理论分布拟合真实分布时产生的信息损耗。 \[D_{K L}(p \| q)=\sum_{i=1}^{N}-p\left(x_{i}\right) \log q\left(x

  • [转]交叉熵 again2021-06-14 12:04:44

    经典概念总是值得反复学习 from:https://zhuanlan.zhihu.com/p/61944055 1. 引言 我们都知道损失函数有很多种:均方误差(MSE)、SVM的合页损失(hinge loss)、交叉熵(cross entropy)。这几天看论文的时候产生了疑问:为啥损失函数很多用的都是交叉熵(cross entropy)?其背后深层的含义是什么?如果换

  • 目标检测算法之FPN(附FPN代码实现)2021-06-05 16:57:16

    论文题目:FeaturePyramidNetworksforObjectDetection 论文链接:https://arxiv.org/abs/1612.03144 所要解决的问题 针对小目标检测网络,CV领域一般用的是特征金字塔。即将原图以不同的比例采样,然后得到不同分辨率的图像进行训练和测试,在多数情况下是有效的。但是特征金字塔的计算、

  • FPN论文解读(附网络结构层次代码)2021-06-05 16:52:32

    这篇论文是CVPR2017年的文章,采用特征金字塔做目标检测,有许多亮点,解决了多尺度目标的检测问题。 # 论文题目 FeaturePyramidNetworksforObjectDetection 论文链接:https://arxiv.org/abs/1612.03144 #论文解读 FPN网络结构 图a  多尺度金字塔 这是一个特征图像金字塔,整个过程是先

  • android .kl文件改写和新建2021-06-03 18:31:09

    方法: 1.改写kl文件,可以在源码改写,可以把手机的kl文件直接改写(root后) 2.适配一个新的手柄kl  我们需要知道vendor号和product号。然后放在sdk编译,或者直接放手机。 下面,自己需要知道哪个步骤自行阅读。 1.android sdk 目录:q4/q4rq/frameworks/base/data/keyboards/ ex: Vendor_

  • 交叉熵损失函数2021-05-24 16:01:21

    ref: https://blog.csdn.net/b1055077005/article/details/100152102 总结一下 加深记忆 一般使用交叉熵作为损失函数时,在模型的输出层总会接一个softmax函数,这是为什么呢? 交叉熵简介: 交叉熵是信息论中的一个重要概念,主要用于度量两个概率分布间的差异性,要理解交叉熵,需要先了解以

  • 信息熵、交叉熵、KL散度等等2021-05-23 13:32:18

    信息熵,KL散度,交叉熵 写在前面 KL散度只是作为距离度量的一种“不完美”的手段,其被提出的出发点不是为了距离度量 信息熵 信息熵是系统信息含量的量化指标。香农描述了信息熵的三个性质: 单调性,且概率越高,信息量越低 非负性 累加性,即多随机事件同时发生的总不确定性的度量应等于

  • 文献阅读(45)AAAI2021-Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting2021-05-01 10:57:29

    本文是对《Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting》一文的浅显翻译与理解,如有侵权即刻删除。 更多相关文章,请移步: 文献阅读总结:图神经网络 文章目录 Title总结1 问题定义2 概率化注意力机制3 注意力蒸馏编码4 生成式解码 T

  • 机器学习基础——详解机器学习损失函数之交叉熵2021-04-29 17:53:30

    今天这篇文章和大家聊聊机器学习领域的熵。我在看paper的时候发现对于交叉熵的理解又有些遗忘,复习了一下之后,又有了一些新的认识。故写下本文和大家分享。熵这个概念应用非常广泛,我个人认为比较经典的一个应用是在热力学当中,反应一个系统的混乱程度。根据热力学第二定律,一个孤立系

  • 论文阅读《Symmetric Cross Entropy for Robust Learning with Noisy Labels》2021-04-27 13:33:28

    论文链接:https://arxiv.org/abs/1908.06112 ICCV19的一篇文章,跟Nosiy Label相关。noisy label指的是质量再高的数据集中,难免也会存在一些错误的标注,而这些错误标注会对DNN的训练带来影响。在本文中,作者揭示了传统用作分类的交叉熵CE损失函数的弊端:即在一些easy class会对nosi

  • 可视化信息理论(Visual Information Theory) (下)2021-04-13 19:59:48

    转载自:https://colah.github.io/posts/2015-09-Visual-Information/ 上 中 前文概要: 比如一个密文有50%的概率要使用,那么我们可以花50%的密文空间来让这个密文简短一些。如果这个密文只有1%的概率用到,那么只花1%的代价来表示这个密文。 Calculating Entropy Recall that the

  • 【机器学习系列】变分推断第二讲:基于Mean Field的变分推断解法2021-04-09 16:58:35

    作者:CHEONG 公众号:AI机器学习与知识图谱 研究方向:自然语言处理与知识图谱 阅读本文之前,首先注意以下两点: 1. 机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。 2. 文

  • 神经网络中的KL散度,以及对于StackGAN++中的CA的理解2021-03-29 23:01:25

    KL散度(转载自微信公众号机器之心) 首先让我们确立一些基本规则。我们将会定义一些我们需要了解的概念。 分布(distribution) 分布可能指代不同的东西,比如数据分布或概率分布。我们这里所涉及的是概率分布。假设你在一张纸上画了两根轴(即 X 和 Y),我可以将一个分布想成是落在这两根

  • Generative Adversarial Network(2)2021-02-21 22:30:35

    Maximum Likelihood Estimation Maximum Likelihood Estimation= Minimize KL Divergence Discriminator Algorithm

  • 如何理解熵值和KL-散度2021-02-21 11:02:33

    参考https://www.jianshu.com/p/43318a3dc715 看完这篇博文之后我几乎明白了熵值和KL散度的意义。 熵值 以下是熵值的计算公式: 根据我的理解,熵值是用来衡量传输某数据的分布概率值要使用的存储空间,熵值公式中的p(x)就是某数据出现的概率,例如有两颗蛀牙的概率为p(2)。最多有1

  • 稀疏自编码器及TensorFlow实现2021-02-14 08:01:12

    自动编码机更像是一个识别网络,只是简单重构了输入。而重点应是在像素级重构图像,施加的唯一约束是隐藏层单元的数量。 有趣的是,像素级重构并不能保证网络将从数据集中学习抽象特征,但是可以通过添加更多的约束确保网络从数据集中学习抽象特征。 稀疏自编码器(又称稀疏自动编码

  • 变分推断2021-02-13 11:01:05

    http://cairohy.github.io/2018/02/28/vi/VI-1/ https://zhuanlan.zhihu.com/p/49401976 一、近似推断问题 马尔科夫蒙特卡洛(MCMC)采样是近似推断(Approximate Inference)的一种重要方法,其改进包括Metropolis-Hastings算法,Gibbs采样。 在MCMC不满足性能要求的时候,我们使用变分推

  • 直观解读 KL 散度的数学概念2021-02-10 12:00:26

    选自http://thushv.com,作者:Thushan Ganegedara,机器之心编译。 机器学习是当前最重要的技术发展方向之一。近日,悉尼大学博士生 Thushan Ganegedara 开始撰写一个系列博客文章,旨在为机器学习初学者介绍一些基本概念。本文是该系列的第一篇文章,介绍了 KL 散度(KL divergence)的

  • KL散度学习笔记2021-01-13 21:05:11

    这是一个啰嗦鬼写的啰嗦笔记,仅用来备份而已。 信息熵 参考:https://baike.baidu.com/item/%E9%A6%99%E5%86%9C%E7%86%B5/1649961?fr=aladdin 一条信息的信息量大小和它的不确定性有直接的关系。 比如说,我们要搞清楚一件非常不确定的事,或是一无所知的事情,需要了解大量的信息。相

  • 做题打卡第三天(补发)2021-01-07 11:03:37

    每日水题#3 昨天忘记水博客了今天重新发一个 著名科学家卢斯为了检查学生对进位制的理解,他给出了如下的一张加法表,表中的字母代表数字。 例如: L K V E L L K V E K K V E KL V V E KL KK E E KL KK KV 其含义为: L+L=LL+L=L,L+K=KL+K=K,L+V=VL+V=V,L+E=EL+E=E K+L=KK+L=K,K+K=VK+K

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有