ICode9

精准搜索请尝试: 精确搜索
  • GAN 笔记2021-07-02 22:31:22

    GAN 计算过程 目标: 学习一个在x上的分布 p g p_g pg​ 定义: 随机噪声z作为输入: P

  • 信息熵,交叉熵与KL散度2021-06-29 22:03:28

    一、信息熵 若一个离散随机变量 \(X\) 的可能取值为 \(X = \{ x_{1}, x_{2},...,x_{n}\}\),且对应的概率为: \[p(x_{i}) = p(X=x_{i}) \]那么随机变量 \(X\) 的熵定义为: \[H(X) = -\sum_{i=1}^{n}p(x_{i})logp(x_{i}) \]规定当 \(p(x_{i})=0\) 时,\(H(X)=0\)。 通过公式可以看出,若随

  • JS散度(Jensen–Shannon divergence)2021-06-14 18:34:53

    1. 概述 KL散度存在不对称性,为解决这个问题,在KL散度基础上引入了JS散度。 \[J S\left(P_{1} \| P_{2}\right)=\frac{1}{2} K L\left(P_{1} \| \frac{P_{1}+P_{2}}{2}\right)+\frac{1}{2} K L\left(P_{2} \| \frac{P_{1}+P_{2}}{2}\right) \]JS散度的值域范围是[0,1],相同则是0,相反

  • 相对熵(KL散度)2021-06-14 16:02:54

    1. 概述 在信息论中,相对熵等价于两个概率分布信息熵的差值,若其中一个概率分布为真实分布,另一个为理论(拟合)分布,则此时相对熵等于交叉熵与真实分布的信息熵之差,表示使用理论分布拟合真实分布时产生的信息损耗。 \[D_{K L}(p \| q)=\sum_{i=1}^{N}-p\left(x_{i}\right) \log q\left(x

  • [转]交叉熵 again2021-06-14 12:04:44

    经典概念总是值得反复学习 from:https://zhuanlan.zhihu.com/p/61944055 1. 引言 我们都知道损失函数有很多种:均方误差(MSE)、SVM的合页损失(hinge loss)、交叉熵(cross entropy)。这几天看论文的时候产生了疑问:为啥损失函数很多用的都是交叉熵(cross entropy)?其背后深层的含义是什么?如果换

  • 交叉熵损失函数2021-05-24 16:01:21

    ref: https://blog.csdn.net/b1055077005/article/details/100152102 总结一下 加深记忆 一般使用交叉熵作为损失函数时,在模型的输出层总会接一个softmax函数,这是为什么呢? 交叉熵简介: 交叉熵是信息论中的一个重要概念,主要用于度量两个概率分布间的差异性,要理解交叉熵,需要先了解以

  • 信息熵、交叉熵、KL散度等等2021-05-23 13:32:18

    信息熵,KL散度,交叉熵 写在前面 KL散度只是作为距离度量的一种“不完美”的手段,其被提出的出发点不是为了距离度量 信息熵 信息熵是系统信息含量的量化指标。香农描述了信息熵的三个性质: 单调性,且概率越高,信息量越低 非负性 累加性,即多随机事件同时发生的总不确定性的度量应等于

  • [原创]关于散度(divergence)和旋度(Curl)的公式推导2021-05-15 18:02:07

    参考3Blue1Brown这个博主的视频 Divergence and curl: The language of Maxwell's equations, fluid flow, and more   https://www.youtube.com/watch?v=rB83DpBJQsE   对应于B站上是   散度与旋度:麦克斯韦方程组、流体等所用到的语言    https://www.bilibili.com/vid

  • 6.1通量和散度2021-05-03 19:32:39

    文章目录 矢量场的通量矢量场的散度(divergence)直角坐标系中的散度散度定理高斯公式散度、旋度的正式定义高斯公式 参考 矢量场的通量 首先我们来看一道初中物理题: 小明乘帆船出行,刮来一阵妖风,假设帆的面积为 S

  • 文献阅读(45)AAAI2021-Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting2021-05-01 10:57:29

    本文是对《Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting》一文的浅显翻译与理解,如有侵权即刻删除。 更多相关文章,请移步: 文献阅读总结:图神经网络 文章目录 Title总结1 问题定义2 概率化注意力机制3 注意力蒸馏编码4 生成式解码 T

  • 机器学习基础——详解机器学习损失函数之交叉熵2021-04-29 17:53:30

    今天这篇文章和大家聊聊机器学习领域的熵。我在看paper的时候发现对于交叉熵的理解又有些遗忘,复习了一下之后,又有了一些新的认识。故写下本文和大家分享。熵这个概念应用非常广泛,我个人认为比较经典的一个应用是在热力学当中,反应一个系统的混乱程度。根据热力学第二定律,一个孤立系

  • 论文阅读《Symmetric Cross Entropy for Robust Learning with Noisy Labels》2021-04-27 13:33:28

    论文链接:https://arxiv.org/abs/1908.06112 ICCV19的一篇文章,跟Nosiy Label相关。noisy label指的是质量再高的数据集中,难免也会存在一些错误的标注,而这些错误标注会对DNN的训练带来影响。在本文中,作者揭示了传统用作分类的交叉熵CE损失函数的弊端:即在一些easy class会对nosi

  • 梯度、散度与拉普拉斯算子2021-03-05 13:01:57

    文章目录 初遇拉普拉斯算子梯度、散度什么是梯度失散多年的亲兄弟——散度? 拉普拉斯算子 初遇拉普拉斯算子 有这样一个特殊的数学符号叫拉普拉斯算子(Laplace operator),在不少工程领域都有它的出现,其数学表达式写作 △

  • Games201-欧拉法流体模拟2021-02-28 15:02:25

    目录Material Derivatives材料导数不可压缩的NS方程 回答一个问题:在我这个点,材料以什么速度穿过我这个点 Material Derivatives材料导数 材料导数,两个成分,物理量关于时间和空间的导数 关于t的偏导是欧拉的分量,由于材料移动了,这个物理量的材料导数也会产生变化 比如温度的变化有两

  • 如何理解熵值和KL-散度2021-02-21 11:02:33

    参考https://www.jianshu.com/p/43318a3dc715 看完这篇博文之后我几乎明白了熵值和KL散度的意义。 熵值 以下是熵值的计算公式: 根据我的理解,熵值是用来衡量传输某数据的分布概率值要使用的存储空间,熵值公式中的p(x)就是某数据出现的概率,例如有两颗蛀牙的概率为p(2)。最多有1

  • 稀疏自编码器及TensorFlow实现2021-02-14 08:01:12

    自动编码机更像是一个识别网络,只是简单重构了输入。而重点应是在像素级重构图像,施加的唯一约束是隐藏层单元的数量。 有趣的是,像素级重构并不能保证网络将从数据集中学习抽象特征,但是可以通过添加更多的约束确保网络从数据集中学习抽象特征。 稀疏自编码器(又称稀疏自动编码

  • 直观解读 KL 散度的数学概念2021-02-10 12:00:26

    选自http://thushv.com,作者:Thushan Ganegedara,机器之心编译。 机器学习是当前最重要的技术发展方向之一。近日,悉尼大学博士生 Thushan Ganegedara 开始撰写一个系列博客文章,旨在为机器学习初学者介绍一些基本概念。本文是该系列的第一篇文章,介绍了 KL 散度(KL divergence)的

  • 高维数据可视化之t-SNE算法2021-01-30 11:05:07

    https://blog.csdn.net/hustqb/article/details/78144384 t-sne数学原理https://zhuanlan.zhihu.com/p/57937096 什么是t-SNE? t-SNE的主要用途是可视化和探索高维数据。 它由Laurens van der Maatens和Geoffrey Hinton在JMLR第九卷(2008年)中开发并出版。 t-SNE的主要目标是将多

  • KL散度学习笔记2021-01-13 21:05:11

    这是一个啰嗦鬼写的啰嗦笔记,仅用来备份而已。 信息熵 参考:https://baike.baidu.com/item/%E9%A6%99%E5%86%9C%E7%86%B5/1649961?fr=aladdin 一条信息的信息量大小和它的不确定性有直接的关系。 比如说,我们要搞清楚一件非常不确定的事,或是一无所知的事情,需要了解大量的信息。相

  • GAN杂记2020-12-06 15:29:43

    与GAN有关的一些公式: KL散度: JS散度: 未完待续。。。

  • <数学> 交叉熵 / KL散度2020-12-05 22:04:46

    Intro 交叉熵,用来衡量两个随机变量之间的相似度。 KL散度(相对熵),量化两种概率分布P和Q之间差异。 计算公式 交叉熵 \(CE(p,q) = - (\sum_{i=1}^{n}[p_{i}*log(q_{i}) + (1-p_{i})*log(1-q_{i})])\) KL散度 \(D_{KL}(p||q) = \sum_{i=1}^{n}p_{i}*log(p_{i}/q_{i})\)

  • 使用PCAST检测散度以比较GPU和CPU结果2020-11-21 11:03:57

    使用PCAST检测散度以比较GPU和CPU结果 并行编译器辅助软件测试(PCAST)是英伟达HPC FORTRAN、C++和C编译器中的一个特性。PCAST有两个用例。一个新的处理器或新的编译程序的部分或新的时间标志首先被编译。您可能需要测试新库是否会产生相同的结果,或者测试添加OpenMP并行、启用自动矢

  • 生成式对抗网络2020-09-12 21:33:36

    生成式对抗网络 GAN Generative Adversarial Nets, 生成式对抗网络 生成模型 生成式对抗网络(GAN)的目的是训练这样一个生成模型,生成我们想要的数据 GAN框架 判别器(Discriminator):区分真实(real)样本和虚假(fake)样本。对于真实样本,尽可能给 出高的评分1;对于虚假数

  • GAN2020-09-12 18:32:51

    生成式对抗网络(GAN) 一、什么是生成式对抗网络GAN? 在知乎上看到一个比较有趣的例子: 女生让男生给自己拍照,可是一直不满意男生拍的照片,就对照“别人家的男朋友”拍的照片,一次次让男生去改,直到女生满意。 在这个例子中, 男生可以被看作是GAN中的生成模型(Generative Model); 女生可以

  • 【摘录】多元高斯分布的KL散度2020-06-16 23:07:28

    多元高斯分布的KL散度 觉得有用的话,欢迎一起讨论相互学习~ 首先声明,本人是概率论方面的小白,此篇文章纯属自学笔记,文中所有内容可能摘抄自不同的平台,集百家之长,不用作商业用途。非常感谢各位大佬的知识共享,都会标明出处,如果对各位造成了侵权,欢迎指出,将对文章内内容进行修改和删

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有