ICode9

精准搜索请尝试: 精确搜索
  • 模式识别系列(四)线性支撑向量机2021-07-18 11:33:28

    目录 1.SVM的问题提出2.SVM推导与证明3.线性SVM求解优化方法 1.SVM的问题提出   终于讲到大名鼎鼎的支撑向量机(support vector machine)SVM。初见此名,相信大家跟我一样都是满脸的黑人问号,什么是支撑向量,什么又是向量机?切莫着急,听我一一道来。   之前我们在讲线性回归

  • 复习计划_高等数学2021-07-16 13:34:18

    前言 补一波高数吧 参考张宇高等数学18讲 中值定理们 拉格朗日中值定理 设 f(x) 满足 f ( x ) =

  • Solution -「多校联训」光影交错2021-07-16 08:00:06

    \(\mathcal{Description}\)   Link.   一个游戏包含若干次卡牌抽取,每次以 \(p_l\) 的概率得到 \(+1\),\(p_d\) 的概率得到 \(-1\),否则得到 \(0\),操作后以 \(p\) 的概率结束游戏,求每次抽取后,满足 \(+1\) 数量大于 \(-1\) 数量的抽取轮数的期望值。不取模。   \(0<p\le1\),\(0\l

  • LUOGU P45782021-07-14 20:35:38

    LUOGU P4578:\ 做法 :差分约束 设第$r$行的操作使这一行的数增加了 $x_{r}$ 第$c$列的操作使这一列的数减少了 $y_{c}$ 那么显然对于第 $r$ 行第 $c$ 列绿宝石的密码 $p$ 则 $x_{r} - y_{c} = p$ $ \left{ \begin{aligned} x_{r}-y_{r} \leq p \ y_{c}-x_{r} \leq -p\ \end{aligne

  • 你要的机器学习常用评价指标,以备不时之需2021-07-10 15:02:35

    导读 在机器学习中,我们前期经过数据采集、数据清洗,中期进行特征分析、特征选择,后期对处理好的数据集分割,将数据集划分为训练集、验证集合、测试集,最后基于划分好的数据集进行训练调优,并选择性能最好的模型。那么我们是如何评估我们的模型性能好坏的呢?这就不得不说一下常用的

  • 线性支持向量机2021-07-06 20:02:40

    1. 线性SVM模型 线性支持向量机的思想非常朴素:用一个超平面将两类数据分割开来。 如上图,这样的超平面有无数个,选择哪个超平面更好呢?从上图可以看出,平面①会将红色的两个数据分错,平面②则不会,这是因为平面②将两边的间隔分得更大。所以,我们应该选择将两边间隔分割得最大的超

  • [微积分与无穷级数]AMM Problems笔记2021-07-04 12:35:32

    AMM Problems 某个月黑风高的下午,Yoshinow2001打开了一个积分题(见Problem12221),他发现他不会做,但是有论文,花了一个晚上终于搞懂了整个过程,写完这题的他不禁感叹数学的奇妙(//̀Д/́/),里面许多方法其实并不陌生,以及想稍微整理一下整个题,于是就有了这篇blog。 如果不咕咕咕的话,之后

  • 04-拉格朗日对偶问题和KKT条件2021-07-02 11:54:31

    一、拉格朗日对偶函数 二、拉格朗日对偶问题 三、强弱对偶的几何解释 四、鞍点解释 4.1 鞍点的基础定义 4.2 极大极小不等式和鞍点性质 五、最优性条件与 KKT 条件 5.1 KKT 条件 5.2 KKT 条件与凸问题 5.3 互补松弛性 六、扰动及灵敏度分析 6.1 扰动问题 6.2 灵敏度分析 七、Reform

  • 雷达原理与系统笔记2021-06-20 16:33:09

    对着习题瞎记的,图片链接出了点问题,太麻烦了,索性全删了,所以很多地方缺了东西,姑且看看,考完试有空再补。 第 1 章 绪论 雷达回波中的可用信息 R : 斜 距

  • 04-拉格朗日对偶问题和KKT条件2021-06-20 11:05:29

    04-拉格朗日对偶问题和KKT条件 目录一、拉格朗日对偶函数二、拉格朗日对偶问题三、强弱对偶的几何解释四、鞍点解释4.1 鞍点的基础定义4.2 极大极小不等式和鞍点性质五、最优性条件与 KKT 条件5.1 KKT 条件5.2 KKT 条件与凸问题六、扰动及灵敏度分析6.1 扰动问题6.2 灵敏度分析七

  • Markdown学习中文简洁版2021-06-18 14:01:26

        Markdown学习中文简洁版 标题 说明 可以用“#”然后点击空格表示一级标题,以此类推,“##”“表示二级标题,最对有六级标题 Headers use 1-6 hash (#) characters at the start of the line, corresponding to header levels 1-6. For example: # This is an H1​## This is an

  • HDU 1506 Largest Rectangle in a Histogram(单调栈)2021-06-05 10:08:15

    Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 65536/32768 K (Java/Others) Total Submission(s): 20760    Accepted Submission(s): 6325 Problem Description A histogram is a polygon composed of a sequence of rectangles aligned at a common base

  • 优化理论09---线性等式约束问题的投影方法2021-06-03 22:33:41

    线性等式约束问题的投影方法 1 回顾最速下降法 无约束最优化问题: ( P )

  • 【详解】生成函数2021-05-20 21:01:52

    参考资料 WC2019讲义 生成函数,多项式算法与图的计数.pdf OI-Wiki cp-algorithms https://zhuanlan.zhihu.com/p/52718645 等等…… 指数型生成函数 数列\(\{a_i\}\)的指数型生成函数(EGF)是\(A(x)=\sum_{i=0}^\infty\frac{a_i}{i!}x_i\)。 若\(C=A*B\),则 \[\begin{aligned} C &= (

  • 【Luogu P5515】[MtOI2019]灵梦的计算器2021-05-16 16:33:11

    链接: 洛谷 博客园 题目大意: 求出 \(\lfloor n^a+n^b\rfloor\) 相等时,\(n\) 的上下界的差值。 正文: 如果不取整,函数 \(f(x)=x^a+x^b\) 的图象是这样的: 我们要找的是最大的 \(x_1-x_2\)。 现在我们知道 \(f(x_1)-f(x_2)\rightarrow 1\),即它趋向于 \(1\)。我们知道斜率的公式是 \(\f

  • 自适应辛普森算法2021-05-08 10:32:50

    一个并不知道现在学了有什么用的算法,因为我不会计算几何,甚至是对计算几何一窍不通。 自适应辛普森算法(ASR)可以用来求 \(\int_a^bf(x)\,\mathrm dx\),即求一个函数 \(f(x)\) 的定积分,其中 \(f(x)\) 是一个不太好直接积的函数。其大致思路大概就是不断用一个二次函数对原函数进行拟合

  • Neko and sequence(HDU - 6539,树状数组 + 思维)2021-05-02 17:31:56

    一、题目链接: Neko and sequence 二、题目大意 给一个长度为 n n n 且字符集为 { ′

  • [CF1278F] Cards 加强版2021-04-29 12:34:05

    \(\text{Problem}:\)CF1278F Cards 加强版 \(\text{Solution}:\) 设 \(p=\frac{1}{m}\),要求的是: \[\sum\limits_{i=0}^{n}\binom{n}{i}p^{i}(1-p)^{n-i}i^{k} \]将 \(i^{k}\) 利用第二类斯特林数展开,有: \[\begin{aligned} ans&=\sum\limits_{i=0}^{n}\binom{n}{i}p^{i

  • 概率生成函数2021-04-26 08:34:18

    概率生成函数 定义 若 \(X\) 为仅取非负整数值的随机变量,那么 \(X\) 的概率生成函数(probability generating function,PGF) 为 \[G_{X}(z)=\sum_{k\ge 0}\operatorname{Pr}(X=k)z^k \]显然 \(G_X(z)\) 的各项系数非负,且其和为 \(1\)。这个条件可以写成 \[G_X(1)=1 \]同样,反过来,任

  • Lucas(卢卡斯)定理2021-04-18 18:33:13

    定义 若 \(p\) 为质数,且\(a\ge b\ge1\),则有: \[C_{a}^{b}\equiv C_{a/p}^{b/p}\cdot C_{a (mod\,p)}^{b(mod\,p)} \]拆分a与b 按照 \(p\) 进制拆分 \(a\) 与 \(b\) ,设 \(a\) 与 \(b\) 是 \(k\) 位,不足用 \(0\) 补足。 \[\left\{\begin{aligned} a&=a_0p^{0}+a_1p^{1}

  • 圆周率π的几种计算方法与分析2021-04-15 21:58:21

    How to calculate mathematics π π π(圆周率的计算方法) From 翔文公益数学 © kumath@outlook.com 泰勒级数理论(Taylor’s theorem and Taylor series) 多项式逼近任意函数 多项式 (po

  • 误差计算2021-04-15 18:56:54

    误差计算目录OutlineMSEEntropyCross EntropyBinary ClassificationSingle outputClassificationWhy not MSE?logits-->CrossEntropyOutlineMSECross Entropy LossHinge LossMSE\(loss = \frac{1}{N}\sum(y-out)^2\)\(L_{2-norm} = \sqrt{\sum(y-out)}\)import tensorflo

  • 生成函数简介2021-04-14 22:34:51

    定义 序列 \(A\) 的生成函数(又称母函数,generating function),是一种形式幂级数,其每一项的系数都可以提供关于 \(A\) 的信息。 形式幂是指,无论函数的自变量的取值是多少,都不影响原序列的信息。 常用的有普通生成函数和指数生成函数。 生成函数经常被用于处理组合/排列问题。 普通生成

  • 经典机器学习算法:高斯判别分析GDA2021-04-04 19:59:30

    高斯判别分析介绍 高斯判别分析 GDAGDA模型模型求解具体计算 高斯判别分析 GDA GDA:Guassian Discrimant Analysis 高斯判别分析属于两分类、软分类、概率生成模型 GDA模型 生成模型中,我们需要对联合概率分布进行建模,然后采用 MAP 来获得参数的最佳值。两分类的情况,我们

  • 【LuoguP4464】 [国家集训队] JZPKIL2021-04-03 20:33:29

    瞎jb推一波式子,推出 \[ans=n^{x+y}\sum_{j=0}^{y+1}a_j\sum_{i|n}\sum_{d_1|n/i}i^{j-x}d_1^{y-x}\mu(d_1) \]其中 \(a_j\) 是自然数幂和的多项式系数。 然后后面显然是个积性函数,随便求求就好了。 推导 \[\begin{aligned} \frac{ans}{n^y}&=\sum_{d\mid n}d^{x-y}\sum_{i=1}^{n

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有