lanyu_01 《word2vec Parameter Learning Explained》论文学习笔记 CBOW(Continuous Bag-of-Word Model) one-word context 设定context(预测目标单词的上下文)仅有一个单词,即使用一个单词的context去预测目标单词。 上图即为one-word context下的神经网络模型,相邻层为全连接,输入层
Concepts of Hypothesis Testing 假说检验的目的是利用样本来测试一个或者多个群体的参数值 Steps for Testing a Hypothesis 1.设定虚无假说(null hypothesis,\(H_0\))和对立假说(alternative hypothesis,\(H_1/H_a\)) 2.指定显著水准(level of significance,\(\alpha\)) 3.决定
论文: A validated physical model for real-time simulation of soft robotic snakes 内容:a framework that is capable of accurately representing soft robotic actuators;a constraint- based dynamics model of a 1-dimensional pneumatic soft actuator 形变模型: \[\begi
目录1. 线性模型2. 线性回归2.1 一元线性回归3. 一元线性回归的Python实现3.1 使用 stikit-learn3.1.1 导入必要模块3.1.2 使用 Pandas 加载数据3.1.3 快速查看数据3.1.4 使用 stlearn 创建模型3.1.5 模型评估3.2 手动实现3.2.1 计算 w 和 b3.2.2 功能封装 1. 线性模型 给定 \(d\)
1. 机器学习的定义 A computer program is said to learn from experience E with respect to some task T and some performance measure P, if its performance on T, as measured by P, improves with experience E. ---- Tom Mitchell(1998) 假设用P来评估计算机程序在某任
目录 目录地址 上一篇 下一篇 加性函数相加还是加性函数 设 \(f,g\) 为加性函数, \(h=f+g\) 则对于 \(\forall n,m\in Z_+,gcd(n,m)=1\) \(h(nm)=(f+g)(nm)=f(nm)+g(nm)=f(n)+f(m)+g(n)+g(m)=(\ f(n)+g(n)\ )+(\ f(m)+g(m)\ )=h(n)+h(m)\) 且易证得,当且仅当两者都为完全加性时,相加
本文是阅读 Introduction of Mathematical Cryptography Second Edition 一书中关于格密码一章的Review,只讲述简单的总结,具体内容请翻阅该书的第七章(下文中大部分图片均来自此书) 同余密码体系与背包密码 同余(Congruence)密码 流程如下,可以看做一个低维的格密码,破解该种密码
支持向量机算法 SVM算法和感知机,逻辑回归一样,都是经典的二分类算法。其中,支持向量机找到的分割超平面具有更好的鲁棒性,因而被广泛使用在了很多任务上。 一、常见的几何性质(欧氏空间) {wTx1+b=0wTx2+b=0w为法向量wT(x1−x2)=0(式1) \begin{cases} w^Tx_1+b=0\\ w^Tx_2+b=0{\q
批量归一化 1.基本概念 2.代码实现 1.基本概念 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。 标准化处理输入数据使各个特征的分布相近 批量归一化(深度模型) 利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在
批量归一化(BatchNormalization) 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。 标准化处理输入数据使各个特征的分布相近 批量归一化(深度模型) 利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间
其他问题 1. 模型选择、欠拟合和过拟合 1.1 训练误差和泛化误差 1.2 模型选择 1.2.1 验证数据集 1.2.2 \(K\) 折交叉验证 由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是\(K\)折交叉验证(\(K\)-fold cross-validation)。在\(K\)折
1. Elimination algorithm 主要目的是为了计算边缘分布 Reconstituted graph: 若消去的随机变量为 xkx_kxk,则所有与 xkx_kxk 连接的随机变量会形成一个新的 clique 复杂度 Brute-force marginalization:O(∣X∣N)O\left(|\mathcal{X}|^N\right)O(∣X∣N) Zig-zag
前段时间磕盐接触到了希尔伯特频谱,它是一种信号分解方法,1998年提出来的,主旨是把复杂信号分解为简单信号的加权和,就像傅里叶变换小波变换一样,但是他和傅里叶变换等方法的区别是他是纯粹时间域的分解,但是每个子信号却可以表示不同的频率成分,于是可以得到像小波变换那样的时频
项目地址:https://github.com/TrickyGo/Dive-into-DL-TensorFlow2.0 UC 伯克利李沐的《动手学深度学习》开源书一经推出便广受好评。很多开发者使用了书的内容,并采用各种各样的深度学习框架将其复现。 现在,《动手学深度学习》书又有了一个新的复现代码版本——TensorFlow2
#习题 1.1 表 1.11.11.1 中若只包含编号为 111 和 444 的两个样例, 试给出相应的版本空间. 这应该不难理解吧,直接上表格. 编号 色泽 根蒂 敲声 好瓜 111 青绿 蜷缩 浊响 是 444 乌黑 稍蜷 沉闷 否 1.2 与使用单个合取式来进行假设表示相比, 使用 “析合范式” 将
本文搬自本人洛谷博客 题目 本文进行了一定的更新 优化了 Markdown 中 Latex 语句的运用,加强了可读性 补充了“我们仍不曾知晓得 消失的 性质5 ”,加强了推导的严谨性 介于使用了新的推导方法,调整了推导顺序 补充了关于线性筛的欧拉函数性质8 又又又又又 修改了部分错误(工程量太大
这是一篇非常有趣的工作,看完会觉得眼前一亮。 论文标题:Reasoning on Knowledge Graphs with Debate Dynamics 发表于AAAI,2020 动机 很多机器学习的任务都是通过将节点与关系嵌入,并计算三元组置信度得分,然后最大化正例的得分得到嵌入向量,但究竟哪一部分对最终的得分起作用
习题 \(2.1\) 数据集包含 \(1000\) 个样本, 其中 \(500\) 个正例、\(500\) 个反例, 将其划分为包含 \(70\%\) 样本的训练集和 \(30\%\) 样本的测试集用于留出法评估, 试估算共有多少种划分方式. 如果划分要保证正例和反例一样多的话, 那么划分方式数量 \(n\) 有 \[\begin{a
[toc] 【算法和公式很simple,甚至有点naive,但文章的写作不错】 为了让小网络具有大能力,我们通常使用蒸馏。这篇文章提出了一种新方法:深度相互学习(deep mutual learning, DML)。与蒸馏法不同,相互学习中存在多个学生共同学习,并且每个学生之间要互相学习。实验还发现了一个惊人的结果:我
1. 矩阵范数 我们怎么来衡量一个矩阵的大小呢?针对一个向量,它的长度是 \(||\boldsymbol x||\)。针对一个矩阵,它的范数是 \(||A||\)。有时候我们会用向量的范数来替代长度这个说法,但对于矩阵我们只说范数。有很多方式来定义矩阵的范数,我们来看看所有范数的的要求然后选择其中一个。
已知向量\(\boldsymbol{\alpha}\),\(\boldsymbol{\beta},\boldsymbol{\gamma}\)满足\(\left|\boldsymbol{\alpha}\right|=1\),\(\left| \boldsymbol{\alpha}-\boldsymbol{\beta}\right|=\left| \boldsymbol{\beta}\right|\),\(\left(\boldsymbol{\a
若平面向量\(\left| \boldsymbol{a}\right|=2\),\(\left| \boldsymbol{b}\right|=3\),\(\left| \boldsymbol{e}\right|=1\),且\(\boldsymbol{a}\cdot\boldsymbol{b}-\boldsymbol{e}\cdot\left(\boldsymbol{a}+\boldsymbol{b}\right)+1=0\).则\(\left| \
基本定义 设\[h=\left(h_{1}, h_{2}, \cdots, h_{n}\right)\] 如果 \[f\left(x_{0}+h\right)-f\left(x_{0}\right)=\sum_{i=1}^{n} \lambda_{i} h_{i}+o(\|h\|), \quad\|h\| \rightarrow 0\] 其中\(\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}\)不依赖于
作者:陈凤 (西安交通大学) Stata连享会 计量专题 || 精品课程 || 简书推文 || 公众号合集 连享会:内生性问题及估计方法专题 连享会 空间计量专题 2019.10.24-27 文章目录连享会:内生性问题及估计方法专题[连享会 空间计量专题 2019.10.24-27](
文章目录1. 拉格朗日算子1.1 基本流程1.2 理解第一层理解:第二层理解:2. KKT条件2.1 一个限制条件的情况2.2 多个限制条件的情况3. 对偶问题3.1 原始问题3.1.1 一个限制条件的情况下3.2.2 多个限制条件的情况下3.2 转化者3.3 大小安排一波???4. 小结5. 参考文献 1. 拉格朗日算子