ICode9

精准搜索请尝试: 精确搜索
  • Luogu P5395 第二类斯特林数·行2021-08-22 14:03:42

    \(\texttt{Description}\) 第二类斯特林数 \(\begin{Bmatrix} n \\m \end{Bmatrix}\) 表示把 \(n\) 个不同元素划分成 \(m\) 个相同的集合中(不能有空集)的方案数。 给定 \(n\),对于所有的整数 \(i\in[0,n]\),你要求出 \(\begin{Bmatrix} n \\i \end{Bmatrix}\)。 \(1\le n\le 2\times

  • 贪吃蛇 题解(构造矩阵+矩阵快速幂)2021-08-21 11:35:07

    题目链接 题目思路 这个题目的关键点在于那一瞬间该如何去吃贪吃蛇 按大小排序得\(l_1<l_2<l_3...<l_n\) 那么最优的吃法是\(l_{n-1}\)吃\(l_{n}\),然后\(l_{n-2}\)吃\(l_{n-1}\)一直到\(l_1\)吃\(l_2\) 然后第二轮再这样按照权值排序吃即可 为什么是这样 感觉比较显然 也不知道如

  • 矩阵学习(待更新)2021-08-07 20:03:45

    关于矩阵的学习 本文通过oiwiki的知识点进行总结,oiwiki矩阵链接 矩阵加减法 对于矩阵\(A+B\),就是将每个位上的数相加减。 \(\begin{bmatrix}1 & 0 \\ 0&1\end{bmatrix}+\begin{bmatrix}0&1\\1&0\end{bmatrix}=\begin{bmatrix}1&1\\1&1\end{bmatrix}\)​​ 矩阵乘法 矩阵相乘仅当

  • 有关容斥的知识及题目解析2021-08-06 22:03:38

    小目录: 一,容斥原理 二,子集反演 三,最值反演($\textit{Min_Max}$容斥) 四,斯特林反演 五,单位根反演 前置概念 一,第一类斯特林数: $\begin{bmatrix}n\\k\end{bmatrix}$ 那个大的中括号叫做 轮换 ,意思是将$n$个元素划分成$k$集合,每个集合进行 圆排列 的方案数。 圆排列:将长度为$n$的序列

  • 2021牛客暑期多校训练营6 C题: Delete Edges2021-08-03 22:57:50

    C题: Delete Edges 原题链接:https://ac.nowcoder.com/acm/contest/11257/C 题目大意 有一张 n ( n ≤ 2000

  • FFT——快速傅里叶变换2021-08-03 05:31:20

    FFT——快速傅里叶变换 卷积 一般来说在计算机上处理卷积通常是离散的,所以这里只介绍离散卷积 有两个序列\(\{a_n\},\{b_n\}\)​​,若将这两个序列按以下方式生成一个新序列\(\{c_n\}\)​ \[c_k=\sum\limits_{i=-\infty}^{+\infty} a_i\cdot b_{k-i} \]则新序列\(\{c_n\}\)​​称为

  • 吴恩达·Machine Learning || chap4 Linear Regression with multiple variables 简记2021-07-31 16:29:37

    4 Linear Regression with multiple variables 4-1 Multiple features Multiple features (variables) ​ Notation: ​ n n n​ = number of features ​

  • 第四章作业2021-07-30 23:33:26

    第四章作业 1. 令 v ˉ k + 1

  • Codeforces 715E - Complete the Permutations(第一类斯特林数)2021-07-23 18:01:26

    Codeforces 题面传送门 & 洛谷题面传送门 神仙题。在 AC 此题之前,此题已经在我的任务计划中躺了 5 个月的灰了。 首先考虑这个最短距离是什么东西,有点常识的人(大雾)应该知道,对于一个排列 \(p\) 而言,通过交换两个元素使其变成 \(1,2,3,4,\cdots,n\) 的最少步数等于 \(n\) 减去该排列

  • 闫令琪图形学入门笔记(矩阵变换篇)2021-07-18 21:03:11

    1.1 向量的点乘与叉乘 点乘 向量的点乘可以求得一个数,利用点乘可以进一步计算两向量的夹角大小,或者一个向量在另一向量的投影长度。这一运算可用于路径判断中 叉乘 叉乘的含义决定,计算结果是一个向量。结果向量方向上垂直于参加叉乘的两向量,因此称之为法向量,根据右手螺旋定则

  • LOJ #6208 树上询问2021-07-18 11:01:49

    记录一下第一个自己做出来的矩阵乘法数据结构题 传送门 大意是给你一个树,每个点维护两个权值k[i],t[i],初始为0 支持如下操作: 1、Add(x,d) 将x到根的路径上的点k[i]+=d 2、Mul(x,d) 将x到根的路径上的点t[i]+=d*k[i] 3、询问t[x] 首先非常显然的,使用树链剖分可以一个log的代价把原问

  • Hill 密码2021-07-17 15:33:08

    1. 原理介绍 希尔密码(Hill Cipher)是运用基本矩阵论原理的代替密码技术,由 Lester S. Hill 在 1929 年发明,26 个英文字母可表示成 0 ~ 25 的数字,将明文转化成 n 维向量,与一个 n × n 矩阵相乘后,得到的结果模 26,即可得到密文对应的值 假设对明文 act 加密:a 为 0,b 为 1,t 为 19,对其进行

  • 【题解】【BZOJ】BZOJ4712 洪水2021-07-15 15:34:20

        BZOJ4712 洪水 BZOJ4712 洪水 1 题外话 鸽了好久 2 sol 首先考虑没有修改的情况,题目变成一个简单的dp 设\(f_i\) 表示从\(i\) 出发走不到所有其叶子节点的最小代价 则\(f_i=min(V_i,\sum_{t}f_t)\) 其中\(V_i\) 为删去\(i\) 点的权值,\(t\) 是\(i\) 的儿子 对树进

  • 深入浅出图神经网络 第5章 图信号处理与图卷积神经网络 读书笔记2021-07-14 02:01:18

    前面废点话: 终于!来到了GNN最相关的内容!前面四章来说都是一些预备知识,或者说是介绍性的认识的东西,其实和GNN的关系不是特别大。但从这一章开始一上来就是GNN最核心的东西:图信号处理。这部分其实非常关键,但大部分人学的时候可能都会忽视这一点,认为自己可以直接进入GCN的部分,这是错

  • 8 搜索m*n矩阵中目标值的个数(Search a 2D Matrix II)2021-07-14 01:00:24

    目录1 题目2 描述3 思路3.1 图解3.2 时间复杂度3.3 空间复杂度4 源码 1 题目   搜索m*n矩阵中目标值的个数(Search a 2D Matrix II) lintcode:题号——38,难度——medium 2 描述   搜索m×n矩阵中的值target,返回这个值出现的次数。这个矩阵具有以下特性:每行中的整数从左到右是排

  • 「ARC096C」Everything on It2021-07-03 13:01:25

    Solution 容斥,钦定 \(i\) 个数 \(\leq 1\) 次。 \[Ans=\sum_{i=0}^n (-1)^i\binom{n}{i}F(i) \] 其中 \(F(i)\) 表示有 \(i\) 个数的出现次数 \(\leq 1\) 次,剩余 \(n-i\) 个数随意的方案数。 方便起见,不妨设这 \(i\) 个数为 \(1,2,\cdots,i\)。可以把所有子集族中的子集分成两类:

  • 「ARC096C」Everything on It(容斥)2021-07-03 12:03:43

    容斥,钦定 \(i\) 个数 \(\leq 1\) 次。 \[Ans=\sum_{i=0}^n (-1)^i\binom{n}{i}F(i) \]其中 \(F(i)\) 表示有 \(i\) 个数的出现次数 \(\leq 1\) 次,剩余 \(n-i\) 个数随意的方案数。 方便起见,不妨设这 \(i\) 个数为 \(1,2,\cdots,i\)。可以把所有子集族中的子集分成两类: 含有 \(1,

  • [Gym 102978D] Do Use FFT2021-06-26 14:33:08

    tag:分治fft,多项式求逆,转置原理 题意 对每个\(k\in[1,n]\),求出 \[\sum_{i=1}^n(c_i\cdot\Pi_{j=1}^k(a_i+b_j)) \]题解 设\(F_i(x)=\Pi_{j=1}^i(x+b_j)\) 转化为矩阵形式(式子是从jly的博客贺的) \[\begin{bmatrix} [x^0]F_1(x)&[x^1]F_1(x)&\cdots&[x^n]F_1(x)\\ [x^0]F_2(x)&[

  • LGV引理2021-06-25 09:30:13

    对于一个有向无环图,边权均属于某交换群,一条路径的权值为边权的乘积,一个路径集合的权值为所有路径权值的乘积。设点集 \(S=\{a_1\cdots a_n\},\ T=\{b_1\cdots b_n\}\)。 求出所有路径集合 \(P={p_1\cdots p_n}\) 的权值和,使得 \(p_i:a_i\to b_i\),且任意两条路经不经过同一个点。

  • 【量子信息与量子计算简明教程|陈汉武】阅读笔记1——第一章 量子信息与量子计算的基础概念2021-06-20 21:29:51

    文章目录 量子信息量子量子信息介绍量子比特 线性代数相关基础线代叠加与纠缠 有趣的思想实验薛定谔的猫物理数学基础薛定谔的实验 EPR佯谬爱因斯坦的思想实验贝尔态基 应用量子通信量子加密量子计算历史量子计算机量子隐形传态 量子态不可克隆定理Shor算法思想简介 量子

  • 组合数学2021-06-20 09:35:37

    水表 Tony102 andysj wangrx xxbbkk YZHX CJzjy 凉城無愛 Lumos壹玖贰壹 Lead in 组合数学(Combinatorial mathematics),又称为离散数学。广义的组合数学就是离散数学,狭义的组合数学是离散数学除图论、代数结构、数理逻辑等的部分。 狭义的组合数学主要研究满足一定条件的组态(也称组

  • 数字图像处理2021-06-14 19:02:08

    基础概念 人眼的结构 有三层薄膜包围着眼睛:角膜与巩膜外壳、脉络膜和视网膜 脉络膜位于巩膜正下方,包含有血管网,是眼睛的重要的滋养源脉络膜的最前面是睫状体和虹膜,虹膜的收缩和扩张控制值进入眼睛的光亮 视网膜有两类感光器,分别是锥状体和杆状体 锥状体位于视网膜的中

  • 线性代数之——对角化和伪逆2021-06-10 11:05:30

    这部分我们通过选择更好的基底来产生更好的矩阵。当我们的目标是对角化矩阵时,一个选择可以是一组特征向量基底,另外一个选择可以是两组基底,输入基底和输出基底是不一样的。这些左右奇异向量是矩阵四个基本子空间中标准正交的基向量,它们来自于 SVD。 事实上,所有对 \(A\) 的分解都可

  • 线性代数之——正定矩阵2021-06-10 11:04:16

    这部分我们关注有正特征值的对称矩阵。如果对称性使得一个矩阵重要,那么所有特征值大于零这个额外属性则让这个矩阵真正特殊。但我们这里的特殊并不是稀少,事实上在各种应用中具有正特征值的对称矩阵非常常见,它们被称作正定矩阵。 我们可以通过检查特征值是否大于零来识别正定矩阵

  • 吴恩达机器学习笔记-9.1(神经网络1)2021-06-09 11:01:45

    目录神经网络非线性分类问题初识神经网络神经网络模型详解模型前向传播(向量化)神经网络的自我训练假设函数的输出过程拟合AND运算拟合OR运算拟合NOT运算通过多层结构拟合XNOR运算多类别分类问题 神经网络 神经网络是一种古老的算法, 20世纪40年代提出后沉寂了相当一段时间。随着技术

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有