ICode9

精准搜索请尝试: 精确搜索
  • 抽样分布定理——统计学(七)2022-08-02 19:31:36

    抽样分布定理可以说是数理统计的基本定理了,因为它奠定了后面参数估计和假设检验的基础,所以掌握好这个定理以及它的证明十分有必要。这里介绍抽样分布定理以外,以及阐述它在后续内容中的重要作用。 一、抽样分布定理 *前提:都是单个总体的样本,样本的数学期望和方差都易求,以此来求总体

  • KLAVIR2022-08-02 12:31:27

    link 题外话:蒟蒻 Feyn 在考场上成功地被这道题卡住了,两行的代码写了差不多两个小时一直憋不出来。另外有个小小的疑问,为啥其它同学最后的处理方法都和题解一毛一样呢,是我的思路过于非主流了还是什么…… 约定:假设 \(A\) 是一个序列,\(a\) 是一个元素,那么 \(A+a\) 是在序列后拼上一

  • 【学习笔记】数论入门基础2022-08-02 08:00:24

    积性函数与完全积性函数 \(e(n) = [n=1]\) \(I(n) = 1\) \(id(n) = n\) 迪利克雷卷积 记 \(h = f *g\) 表示 \(f,g\) 的迪利克雷卷积为 \(h\) \[h(n) = \sum_{d|n}f(d)g(\frac{n}{d}) \]迪利克雷卷积有交换律、结合律、分配律: \[\begin{aligned} f* g &= g *f \\ (f* g) *h &= f*

  • 2019-基于图像识别的在线粒度检测方法研究与检测系统设计2022-08-01 10:34:53

    计算动态图像的梯度结构相似度(\(\mbox{NRSS}\)),数值低于一定阈值的图像被标记为模糊图像而被剔除; 结构相似度(\(\mbox{SSIM}\)) 亮度比较(\(\mbox{lighting}\)) \[\mbox{l}(x,y)=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1} \] 对比度比较(\(\mbox{contrast}\)) \[\mbox{c}(x,

  • [2022牛客多校赛第四场] C-Easy Counting Problem2022-07-31 18:00:08

    题目大意 统计长度为\(n\)且数位\(i\)出现至少\(c_i\)次的数字串数量。 \(i\in[0,w)\) \((2\leq w\leq 10)\) \(1\leq c_i\leq 50000,\sum c_i\leq 50000\) \(q (1\leq q\leq 300)\) 次询问,每次询问 \(n (1\leq n\leq 10^7)\) 题解 若 \(i\) 恰好出现 \(c_i\) 次,且 \(n=\sum c_i\)

  • [AcWing 4502] 集合操作2022-07-31 13:31:40

    单调性 点击查看代码 #include<bits/stdc++.h> using namespace std; typedef long long LL; const int N = 1e6 + 10; int n, m, op; int a[N]; void solve() { scanf("%d", &m); double sum = 0; int k = 0; while (m --) { scan

  • 【考试总结】2022-07-292022-07-30 11:35:45

    点 计算两个都不包含圆心的方案和一个不包含一个任意的方案。 包含圆心等价于凸包上两个相邻的点之间的距离 \(\le \dfrac{L}2\) 。枚举 \(1\sim n\) 中某个点并让其作为长度 \(>\frac{L}2\) 线段的端点。在线段上的点只能选另一个颜色,剩下的可以任选,得到点数之后可以快速幂 对于

  • CF398B口胡2022-07-30 10:04:28

    每次操作等价于随机选择一行和一列然后染色,询问所有行列都被染色操作的期望。 于是就很显然了,\(dp[n][m]\) 表示已经有 \(n\) 行 \(m\) 列被染色的期望。 显然有: \[dp[n][m]=dp[n][m]\times\frac{n}{N}\times\frac{m}{N}+dp[n+1][m]\times\frac{N-n}{N}\times\frac{m}{N}+dp[n][m+

  • 【牛客网235422 区间最大值】题解2022-07-28 18:35:58

    题目地址 题目 思路 以下分数皆表示整除 \[\Large\max(n\bmod i)\\\Large=\max(n-\frac n i\times i)\\\Large=n+\max(-\frac n i\times i)\\\Large=n-\min(\frac n i \times i) \]显然,当 \(\frac n i\) 一定时,\(i\) 越小越好,所以可以把每个 \(\frac n i\) 求出来,然后数列分块取

  • 利用三视图还原双曲抛物面2022-07-28 09:02:49

    俯视图 拟合为椭圆,作为最终双曲抛物面二元函数的定义域。没啥好说的。 e.g. \(\frac{(x+0.1)^2}{1.15^2}+\frac{(y+0.2)^2}{1.38^2}=2.4\) 因为我们最终希望将二元双曲面的中心定在原点处,所以不需要 \(x_0,y_0\),直接将原式化为 \(\frac{x^2}{1.15^2}+\frac{y^2}{1.38^2}=2.4\) 主

  • 数学-林士谔算法2022-07-27 23:02:59

    代数基本定理 1 代数基本定理 任何复系数一元n次多项式(n至少为1)方程在复数域上至少有一根。 n次复系数多项式方程在复数域内有且只有n个根,重根按重数计算。 证明不会 2 虚根成对定理 在实系数多项式分解中,虚根成对分解,实根单一分解,因此对于奇数次多项式,一定有实根。 简单理解: 假设

  • 【题解】P17632022-07-27 21:33:13

    题目大意: 给出一个分数 \(\frac{a}{b}\),分解为多个分子为 \(1\) 的分数和。 要求分数的个数尽量的少,在数量相同的情况下保证最小的分数最大,且每个分数互不相同。 $ \frac{5}{29} = \frac{1}{6} + \frac{1}{174}$ 迭代加深搜索:   迭代加深搜索可以看做带深度限制的 DFS。

  • 【学习笔记】Powerful Number 筛2022-07-27 15:05:59

    有力量的数字筛(?) Powerful Number 有力量的数字(?) 定义一个数 \(n\) 为 Powerful Number(简称 PN),当且仅当 \(n\) 没有非平方因子。 也即,若 \(n=\prod p_i^{e_i}\),则 \(\forall e_i>1\)。 Lemma 保障 PN 筛时间复杂度的一个性质。 \(n\) 以内的 PN 个数为 \(O(\sqrt n)\)。 首先,考虑

  • 2022杭电多校部分好题题解(简要口糊)2022-07-27 13:00:09

    Day 1 D - Ball 枚举两个点,计算剩下一个点的选取方法: 题解做法:从小到大加入边,相当于要求与其中一个点右边而与另一个没有,直接 \(bitset\) 维护,\(\mathcal O(\frac{Tn^3}{\omega})\) 即可通过。 考场做法:注意到与一个点曼哈顿距离 \(\le d\) 的点形成一个正方形。两个正方形的是

  • HDU7162. Equipment Upgrade (2022杭电多校第3场1001)2022-07-26 22:33:17

    HDU7162. Equipment Upgrade (2022杭电多校第3场1001) 题意 有一件装备,一开始是 \(0\) 级,可以强化它,当它在第 \(i\) 级时,需要花费 \(c_i\) 强化它,有 \(p_i\) 的概率强化成功(升高一级),\(1-p_i\) 的概率强化失败(降 \(1\) 至 \(i\) 级),其中降 \(j\) 级的权重为 \(w_j\),也就是说有 \((1-

  • NLP学习(二)——支持向量机(SVM)2022-07-25 04:02:08

    Support Vector Machine(SVM) 对下图中的数据点进行分类: 要解决的问题: 什么样的决策边界最好? 特征数据本身若很难分应怎么处理? 计算复杂度如何? 决策边界 若将数据点比喻为地雷,则决策边界为选出的离雷区最远的(雷区就是边界上的点,要large margin) 距离的计算 数据标签定义 数据

  • Codeforces 717A. Festival Organization (2900)2022-07-24 13:33:54

    一个合法的串定义为:长度在 \([l,r]\) 之间,且只含 \(0,1\),并且不存在连续 \(2\) 个或更多的 \(0\)。 现在要选出 \(k\) 个长度相同的合法的串,问有几种选法,答案对 \(10^9+7\) 取模。 \(1\le k\le 200,1\le l\le r\le 10^{18}\)。 通过简单计算,可以发现答案即为 \(\sum_{i=l+2}^{r

  • 欧拉函数2022-07-24 00:34:39

    给定 \(n\) 个正整数 \(a_i\),请你求出每个数的欧拉函数。 欧拉函数的定义 $ 1 \sim N $ 中与 $ N $ 互质的数的个数被称为欧拉函数,记为 $ ϕ(N) \(。 若在算数基本定理中,\) N = p_1{a_1}p_2{a_2}…p_m^{a_m} \(,则: \) ϕ(N) $ = $ N \times \frac{p_1-1}{p_1} \times \frac{p_

  • 筛法求欧拉函数之和2022-07-24 00:33:57

    题目描述 求\(1\sim n\)每个数欧拉函数之和 想法 如果\(i\)是质数 \(\varphi (i) = i - 1\) 质数\(i\)只有\(1\)和\(i\)两个因数,\(i\)不和\(i\)本身互质,因数只有一个\(1\),所以互质的数就有\(i-1\)个 如果\(i\)不是质数 \(i \% j = 0\) \(j\)是质数 则\(j\)即\(i\)的一个质

  • 二项式反演2022-07-24 00:03:47

    二项式反演 定理 \(1\):\(F(n)=\sum_{i=0}^{n}{{n\choose i}G(i)}\Leftrightarrow G(n)=\sum_{i=0}^{n}{(-1)^{n-i}{n\choose i}F(i)}\) 证明: 提取系数有 \(F[n]=\sum_{i=0}^{n}{{n\choose i}G[n]}\) \(\displaystyle \to \frac{F[n]}{n!}=\sum_{i=0}^{n}{\frac{1}{(n-i

  • 2.单变量线性回归2022-07-23 17:00:48

    1. 一元线性回归(模型描述) 常用符号: m : 训练样本的数量 x : 输入变量/特征 y : 输出变量/预测的目标变量 (x, y): 表示一个训练样本 $$(x^{(i)}, y^{(i)})$$ : 表示特殊训练样本/第i个训练样本 监督学习的工作过程: 2. 代价函数 在线性回归中我们要解决的是一个最小化的问题 Idea:

  • LGP5136口胡2022-07-22 14:09:58

    配一个 \((\frac{1-\sqrt{5}}{2})^n\)。为什么不是 \(\frac{\sqrt{5}-1}{2}\)?因为根号难处理需要消掉: \[f_n=(\frac{1+\sqrt{5}}{2})^n+(\frac{1-\sqrt{5}}{2})^n \]考虑把两边的 GF 都扒出来,设 \(\alpha=\frac{1+\sqrt{5}}{2},\beta=\frac{1-\sqrt{5}}{2}\): \[F(x)=\frac{1}{1-

  • 【机器学习的数学02】数列的极限2022-07-22 09:02:37

    数列的极限 本文为基于 “《机器学习的数学》- 第1章 一元函数微积分 - 1.1 极限与连续 - 1.1.2 数列的极限” 的学习笔记 知识脉络梳理: 给出数列极限的定义: 直观理解 \(\epsilon\)定义 数列极限的四则运算 证明数列极限存在: 用定义证明 单调收敛定理 夹逼定理 一、数列极

  • 线性筛和牠的伙伴们 : OI数论(1)2022-07-22 01:05:21

    1.线性筛 我们知道一种筛法,叫艾氏筛,复杂度为\(O(N loglogN)\) 这个算法的复杂度的确很小,但是并不是严格线性的,接下来隆重介绍真正的线性筛法——欧拉筛 首先,我们先要知道为什么艾氏筛不能做到线性呢?是因为它的很多数都被重复筛了好多遍 那么怎么避免重复筛呢?我们考虑每个数最小的

  • 生成函数入门2022-07-21 17:35:50

    生成函数 毒。 定义:对于一个序列\(\{ a_i \}\),我们构造一个函数取表示它。 设 \[f(x)=a_0x^0+a_1x+a_2x^2+...+a_n x^n \]那么其中每个系数 \(a_i\) 也就对应了序列中的 \(a_i\)。显然其中的\(x\)对于整个序列表示并没有什么贡献与影响,那么称这种函数为形式幂级数。 那么为什么我

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有