ICode9

精准搜索请尝试: 精确搜索
  • 信息熵,交叉熵,相对熵2021-11-08 22:02:54

    参考链接:https://www.zhihu.com/question/22178202/answer/577936758 信息熵:通过度量信息,来描述信息熵。 概率描述的是事件发生的确定性,熵表示的是事件发生的不确定性。 选取抛硬币这一不确定性事件作为度量,信息熵是1bit(两种等概率的可能,用bit来描述) (1)等可能事件: 通过对不确

  • 【概率论】条件概率2021-11-08 21:32:52

    条件概率 乘法定律 \(P(AB) = P(A|B)P(B)\) 全概率定律 令 \(B_1,\dots B_n\) 满足 \(\cup_{i=1}^nB_i=\Omega,B_i\cap B_j=\emptyset(i\neq j)\),且 \(\forall i,P(B_i)>0\),则有 \(\forall A, P(A) = \sum_{i=1}^n P(A|B_i)P(B_i)\)。 贝叶斯公式 有事件 \(A,B_1,\dots, B_n\),

  • 概率问题:概率论的题.假设目标出现在射程之内的概率为0.7,这是击中目标的概率为0.6,求两次独立射击中至少有一次命中目标的概率.2021-11-08 11:05:33

    昨天晚上在写作业的时候,突然遇到这么一道不起眼的问题,但是和我的思路有很大差异,遂记录之,我觉得还挺有意义的。 其他例题答案是有的,但是和我想的大相径庭,可以说一晚上折腾的觉都没睡好,今天终于搞懂了,嘿嘿,开心: 先说一下我之前的错误思路: 我觉得B事件应该是B1+B2+B1B2,既然题目

  • 概率算法2021-11-07 22:00:22

    目录数值随机化算法Monte Carlo 算法Las Vegas 算法Sherwood 算法 概率算法也叫随机化算法。分治算法、贪心算法、动态规划算法、回溯法、分治界限算法这些算法的每一计算步骤都是确定的,概率算法则允许算法在执行过程中随机地选择下一个计算步骤 数值随机化算法 用于数值计算,求

  • 随机——蓄水池抽样算法 &等概率值2021-11-06 13:02:29

    package ReservoirSampling import ( "math/rand" "testing" "time" ) /* 蓄水池抽样算法 假设有一个机器(以流的形式输出),它可以源源不断的吐出球, 从1号球开始吐,吐完1号球一定吐2号球,吐完2号球一定吐3号球...吐完n-1号球吐n号球, 你有一个可以装下10个球的袋子。 当前球

  • 3-Roc曲线绘制2021-11-06 10:35:13

    关于ROC曲线的绘制过程,通过以下举例进行说明 假设有6次展示记录,有两次被点击了,得到一个展示序列(1:1,2:0,3:1,4:0,5:0,6:0),前面的表示序号,后面的表示点击(1)或没有点击(0)。 然后在这6次展示的时候都通过model算出了点击的概率序列。 下面看三种情况。 1 曲线绘制 1.1 如果概率的序列是(1

  • 概率期望总结2021-11-05 17:33:11

    前言: 今天在看冯巨的期望总结,不得不说期望题就是妙!! 代码短短十几行,但思路却千奇百怪!! 今天就做一下总结(实际上题都没有做完)。 1. 期望公式: 对于互不相容的事件B,一个随机事件A: \[P(A)=\sum_{i=1}^nP(B_i)*P(A|B_i) \]期望公式: \[E(A)=\sum_ip_xx_i \]全期望公式: \[E(Y)=E(E(Y|X))=\s

  • 《商务与经济统计》笔记第六章2021-11-04 17:02:53

    《商务与经济统计》笔记第六章 连续型概率分布6.1 均匀概率分布6.2 正态概率分布6.2.1 正态曲线6.2.2 标准正态概率分布6.2.3 计算正态分布的概率 6.3 二项概率的正态近似6.4 指数概率分布6.4.1 计算指数分布的概率6.4.2 泊松分布和指数分布的关系 连续型概率分布 重要

  • 概率论笔记:高斯分布的边缘概率2021-11-04 12:02:30

    1 符号说明 将变量、均值和方差进行划分(xa是m维的,xb是n维的): 其中x满足N(μ,Σ),μ,Σ满足:    边缘概率就是需要求解P(xa)和P(xb) 2 需要用到的定理  2.1 定理的说明 这个证明不严谨,但是方便说明  3 边缘概率求解 我们以P(xa)为例: xa可以如下构造:  那么根据2中的定理,有:

  • 全概率公式和贝叶斯公式2021-11-03 18:30:29

    一、完备事件组 设E是随机试验,Ω是相应的样本空间,A1,A2,...An为Ω的一个事件组,若 (1)AiAj=(ij) (2)A1A2...An=Ω 则称A1A2...An为样本空间的一个完备事件组,完备事件组完成了对样本空间的一个分割(意义) 二、全概率公式 完备事件组条件下,因为B=ΩB,所以有PB=P(Ai)P(BAi) 三、贝叶斯公式 由条

  • 条件概率和事件的相互独立性2021-11-03 18:03:50

    一、条件概率 在事件A发生的条件下事件B发生的概率 P(BIA)= P(AB)/P(A) 条件概率满足概率的公理化定义的三条基本性质(非负性、规范性、可列可加性) 设P(A)> 0,则: (1)非负性公理:对于任意事件B,总有P(BIA)≥0 (2)规范性公理:P(ΩIA)=1 (3)可列可加性公理:两两互不相容的事假,有P( Ai I B)= P(Ai I B) △概率的

  • 贝叶斯统计2021-11-03 13:01:25

    https://zhuanlan.zhihu.com/p/38553838 1 概率论和统计学的区别 简单来说,概率论和统计学解决的问题是互逆的。假设有一个具有不确定性的过程(process),然后这个过程可以随机的产生不同的结果(outcomes)。则概率论和统计学的区别可以描述为: 在概率论(probability theory)中,我们已知该过

  • 机器学习 —— 朴素贝叶斯简单入门2021-11-02 22:30:35

    机器学习 —— 朴素贝叶斯简单入门 1. 概念理解1.1 数理基础1.1.1 贝叶斯概率1.1.1.1 条件概率1.1.1.2 什么是条件概率1.1.1.3 怎样计算条件概率1.1.1.4 乘法定理1.1.1.5 一些计算题 1.1.2 全概率公式1.1.2.1 引例1.1.2.2 全概率公式 1.1.3 贝叶斯公式1.1.3.1 选择题 2.

  • 等概率事件最优策略问题2021-11-02 07:33:11

    仍然是从考试题说起 noip模拟74第\(3\)题 这个题的第一个结论,两人策略相同 而第一个人的最优策略并不能直接由当前的值推出来,而是需要从后面赢的概率得到当前策略 我们只需要对应的转移一下就行了,具体可以看那篇考试的题解 多校冲刺 noip 11.01第\(2\)题 和上面那个是一样的,只不过

  • 概率抽样与非概率抽样2021-11-01 08:34:46

    概率抽样 简单随机抽样 从总体N中一个一个地抽取n个单位作为样本,每个单位的入样概率相等 分层抽样 将总体按照某种特征划分为不同层次,每个层次分别进行随机抽样 整群抽样 抽样单位为一个群组,抽样时,直接抽取群,群组内的所有单位都归为样本 系统抽样 将总体中的所有单位按照一定顺序

  • 朴素贝叶斯 Naive Bayesian Model2021-10-31 09:02:25

    描述 贝叶斯分类算法,顾名思义是用来解决分类问题的。 从数学角度来说,分类问题可做如下定义:已知集合\(C=y_1,y_2,\cdots,y_n\)和\(I=x_1,x_2,\cdots,x_n\),确定映射规则\(y = f()\),使得任意\(x_i \in I\)有且仅有一个\(y_i \in C\),使得\(y_i \in f(x_i)\)成立。其中\(C\)叫做类别

  • 工作,收集有用的知识2021-10-28 15:33:09

    1,本福特定律 本福特定律,也称为本福特法则,说明一堆从实际生活得出的数据中,以1为首位数字的数的出现概率约为总数的三成,接近直觉得出之期望值1/9的3倍。推广来说,越大的数,以它为首几位的数出现的概率就越低。它可用于检查各种数据是否有造假。 import math for i in range(1,10):

  • 设计技巧2021-10-28 12:34:59

    1.抽奖类型 真随机(数值波动大,不好控制) 分池随机 + 保底(概率基本可控,有保底补偿) 分池随机 + 保底 + 伪随机(概率可以直接控制) 伪随机:每抽 N 次才会获得珍惜物品            :抽 N 次,有 M 次概率获得物品  

  • 学习笔记:隐马尔科夫2021-10-27 22:05:34

    马尔科夫过程 马尔科夫模型           aij从i状态转移到j状态的概率         n元条件概率计算量会很大,解决办法:一阶马尔科夫模型降低事件之间的关联度    定义:马尔科夫模型可以用一个三元组(π,A,B)来定义:         1. π 表示初始状态概率的向量

  • [面试题] 等概率生成器2021-10-27 09:01:08

    题目:已知一随机发生器,产生0的概率是p,产生1的概率是1-p,现在要你构造一个发生器,使得它构造0和1的概率均为1/2;代码:import random p = 200 def generate(p): n = random.randrange(0, 1000) res = 0 if n > p: return 0 else: return 1 def generat

  • 拓端tecdat|PYTHON贝叶斯推断计算:用BETA先验分布推断概率和可视化案例2021-10-25 18:01:54

    原文链接:http://tecdat.cn/?p=24084  原文出处:拓端数据部落公众号 在这篇文章中,我将扩展从数据推断概率的示例,考虑 0 和 1之间的所有(连续)值,而不是考虑一组离散的候选概率。这意味着我们的先验(和后验)现在是一个 probability density function (pdf) 而不是 probability mas

  • 大一C语言学习笔记(4)---自省篇2021-10-24 11:01:38

    博主“曾经”做过的傻事: #你有的*没打全 #你用/的时候没考虑()是一对的 #printf随后加\n #所有变量只要用,就一定要定义数据类型 #sqrt()代表根号 #include<math.h>调用 # 最大的缺点好像是眼神不好....W #取余运算符%两侧的必须是int类型 #do{}   while(); #while();//要用字符的话,要

  • [机器学习][熵]有关熵的记录2021-10-23 13:02:17

    熵 熵的本质是一个系统“内在的混乱程度”,是物理学的概念。 在信息论中,信息熵可以有以下两种理解方式 表征事物的不确定性 表征事件的信息量 事件与概率 先来举个例子,理解事件与概率之间的关系 猜小球事件 有一个不透明的袋子,其中有四种数量相等的小球,A,B,C,D, 现在,拿出一个小球,事

  • 机器学习进阶-贝叶斯网络2021-10-23 10:35:09

    相对熵:又称互熵,交叉熵,鉴别信息  互信息:  信息增益  概率公式 朴素贝叶斯假设 一个特征出现的概率与其他特征独立,每个特征同等重要 高斯朴素贝叶斯    贝叶斯网络 把某个研究系统中设计的随机变量,根据是否条件独立绘制在一个有向图中,就形成了贝叶斯网络。 贝叶斯网络又

  • 什么是NMS(Non-maximum suppression 非极大值抑制)2021-10-21 23:34:35

    就像上面的图片一样,定位一个车辆,最后算法就找出了一堆的方框,我们需要判别哪些矩形框是没用的。非极大值抑制的方法是:先假设有6个矩形框,根据分类器的类别分类概率做排序,假设从小到大属于车辆的概率 分别为A、B、C、D、E、F。     (1)从最大概率矩形框F开始,分别判断A~E与F的重

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有