ICode9

精准搜索请尝试: 精确搜索
  • word2vec2020-05-24 22:02:02

    lanyu_01 《word2vec Parameter Learning Explained》论文学习笔记 CBOW(Continuous Bag-of-Word Model) one-word context 设定context(预测目标单词的上下文)仅有一个单词,即使用一个单词的context去预测目标单词。 上图即为one-word context下的神经网络模型,相邻层为全连接,输入层

  • Concepts of Hypothesis Testing2020-05-14 09:07:24

    Concepts of Hypothesis Testing 假说检验的目的是利用样本来测试一个或者多个群体的参数值 Steps for Testing a Hypothesis 1.设定虚无假说(null hypothesis,\(H_0\))和对立假说(alternative hypothesis,\(H_1/H_a\)) 2.指定显著水准(level of significance,\(\alpha\)) 3.决定

  • [论文阅读笔记] A validated physical model for real-time simulation of soft robotic snakes2020-05-12 22:58:15

    论文: A validated physical model for real-time simulation of soft robotic snakes 内容:a framework that is capable of accurately representing soft robotic actuators;a constraint- based dynamics model of a 1-dimensional pneumatic soft actuator 形变模型: \[\begi

  • 机器学习3- 一元线性回归+Python实现2020-03-31 16:08:00

    目录1. 线性模型2. 线性回归2.1 一元线性回归3. 一元线性回归的Python实现3.1 使用 stikit-learn3.1.1 导入必要模块3.1.2 使用 Pandas 加载数据3.1.3 快速查看数据3.1.4 使用 stlearn 创建模型3.1.5 模型评估3.2 手动实现3.2.1 计算 w 和 b3.2.2 功能封装 1. 线性模型 给定 \(d\)

  • 机器学习-1 绪论2020-03-24 09:01:04

    1. 机器学习的定义 A computer program is said to learn from experience E with respect to some task T and some performance measure P, if its performance on T, as measured by P, improves with experience E. ---- Tom Mitchell(1998) 假设用P来评估计算机程序在某任

  • 积性加性函数运算的性质证明2020-03-10 10:08:21

    目录 目录地址 上一篇 下一篇 加性函数相加还是加性函数 设 \(f,g\) 为加性函数, \(h=f+g\) 则对于 \(\forall n,m\in Z_+,gcd(n,m)=1\) \(h(nm)=(f+g)(nm)=f(nm)+g(nm)=f(n)+f(m)+g(n)+g(m)=(\ f(n)+g(n)\ )+(\ f(m)+g(m)\ )=h(n)+h(m)\) 且易证得,当且仅当两者都为完全加性时,相加

  • Lattices and Cryptography(格理论与密码学)2020-02-24 18:38:50

    本文是阅读 Introduction of Mathematical Cryptography Second Edition 一书中关于格密码一章的Review,只讲述简单的总结,具体内容请翻阅该书的第七章(下文中大部分图片均来自此书) 同余密码体系与背包密码 同余(Congruence)密码 流程如下,可以看做一个低维的格密码,破解该种密码

  • 支持向量机算法2020-02-20 20:41:00

    支持向量机算法 SVM算法和感知机,逻辑回归一样,都是经典的二分类算法。其中,支持向量机找到的分割超平面具有更好的鲁棒性,因而被广泛使用在了很多任务上。 一、常见的几何性质(欧氏空间) {wTx1+b=0wTx2+b=0w为法向量wT(x1−x2)=0(式1) \begin{cases} w^Tx_1+b=0\\ w^Tx_2+b=0{\q

  • 动手学pytorch-Batch Norm2020-02-20 11:54:25

    批量归一化 1.基本概念 2.代码实现 1.基本概念 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。 标准化处理输入数据使各个特征的分布相近 批量归一化(深度模型) 利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在

  • 《动手学深度学习》组队学习打卡Task6——批量归一化和残差网络2020-02-19 19:37:28

    批量归一化(BatchNormalization) 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。 标准化处理输入数据使各个特征的分布相近 批量归一化(深度模型) 利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间

  • 动手学深度学习 3-5 Others2020-02-06 22:04:19

    其他问题 1. 模型选择、欠拟合和过拟合 1.1 训练误差和泛化误差 1.2 模型选择 1.2.1 验证数据集 1.2.2 \(K\) 折交叉验证 由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是\(K\)折交叉验证(\(K\)-fold cross-validation)。在\(K\)折

  • 统计推断(十) Elimination algorithm2020-02-04 09:01:15

    1. Elimination algorithm 主要目的是为了计算边缘分布 Reconstituted graph: 若消去的随机变量为 xkx_kxk​,则所有与 xkx_kxk​ 连接的随机变量会形成一个新的 clique 复杂度 Brute-force marginalization:O(∣X∣N)O\left(|\mathcal{X}|^N\right)O(∣X∣N) Zig-zag

  • 希尔伯特频谱算法Hilbert-Huang spectral analysis(matlab代码)2020-01-30 14:41:14

    前段时间磕盐接触到了希尔伯特频谱,它是一种信号分解方法,1998年提出来的,主旨是把复杂信号分解为简单信号的加权和,就像傅里叶变换小波变换一样,但是他和傅里叶变换等方法的区别是他是纯粹时间域的分解,但是每个子信号却可以表示不同的频率成分,于是可以得到像小波变换那样的时频

  • 第3章3.1节-线性回归【深度学习基础】--动手学深度学习【Tensorflow2.0版本】2020-01-29 14:02:11

    项目地址:https://github.com/TrickyGo/Dive-into-DL-TensorFlow2.0 UC 伯克利李沐的《动手学深度学习》开源书一经推出便广受好评。很多开发者使用了书的内容,并采用各种各样的深度学习框架将其复现。 现在,《动手学深度学习》书又有了一个新的复现代码版本——TensorFlow2

  • 《机器学习》西瓜书习题 第 1 章2020-01-26 16:36:42

    #习题 1.1 表 1.11.11.1 中若只包含编号为 111 和 444 的两个样例, 试给出相应的版本空间. 这应该不难理解吧,直接上表格. 编号 色泽 根蒂 敲声 好瓜 111 青绿 蜷缩 浊响 是 444 乌黑 稍蜷 沉闷 否 1.2 与使用单个合取式来进行假设表示相比, 使用 “析合范式” 将

  • 题解 洛谷P2158 【[SDOI2008]仪仗队】2020-01-23 12:00:55

    本文搬自本人洛谷博客 题目 本文进行了一定的更新 优化了 Markdown 中 Latex 语句的运用,加强了可读性 补充了“我们仍不曾知晓得 消失的 性质5 ”,加强了推导的严谨性 介于使用了新的推导方法,调整了推导顺序 补充了关于线性筛的欧拉函数性质8 又又又又又 修改了部分错误(工程量太大

  • 论文阅读笔记—Reasoning on Knowledge Graphs with Debate Dynamics(AAAI,2020)2020-01-12 13:40:33

    这是一篇非常有趣的工作,看完会觉得眼前一亮。 论文标题:Reasoning on Knowledge Graphs with Debate Dynamics 发表于AAAI,2020 动机  很多机器学习的任务都是通过将节点与关系嵌入,并计算三元组置信度得分,然后最大化正例的得分得到嵌入向量,但究竟哪一部分对最终的得分起作用

  • 《机器学习》 西瓜书习题 第 2 章2019-12-30 23:56:51

    习题 \(2.1\) 数据集包含 \(1000\) 个样本, 其中 \(500\) 个正例、\(500\) 个反例, 将其划分为包含 \(70\%\) 样本的训练集和 \(30\%\) 样本的测试集用于留出法评估, 试估算共有多少种划分方式.   如果划分要保证正例和反例一样多的话, 那么划分方式数量 \(n\) 有 \[\begin{a

  • Paper | Deep Mutual Learning2019-12-03 12:02:40

    [toc] 【算法和公式很simple,甚至有点naive,但文章的写作不错】 为了让小网络具有大能力,我们通常使用蒸馏。这篇文章提出了一种新方法:深度相互学习(deep mutual learning, DML)。与蒸馏法不同,相互学习中存在多个学生共同学习,并且每个学生之间要互相学习。实验还发现了一个惊人的结果:我

  • 线性代数之——矩阵范数和条件数2019-11-29 14:00:10

    1. 矩阵范数 我们怎么来衡量一个矩阵的大小呢?针对一个向量,它的长度是 \(||\boldsymbol x||\)。针对一个矩阵,它的范数是 \(||A||\)。有时候我们会用向量的范数来替代长度这个说法,但对于矩阵我们只说范数。有很多方式来定义矩阵的范数,我们来看看所有范数的的要求然后选择其中一个。

  • 每日一题_1911212019-11-16 13:52:53

    已知向量\(\boldsymbol{\alpha}\),\(\boldsymbol{\beta},\boldsymbol{\gamma}\)满足\(\left|\boldsymbol{\alpha}\right|=1\),\(\left| \boldsymbol{\alpha}-\boldsymbol{\beta}\right|=\left| \boldsymbol{\beta}\right|\),\(\left(\boldsymbol{\a

  • 每日一题_1910162019-10-10 23:00:26

    若平面向量\(\left| \boldsymbol{a}\right|=2\),\(\left| \boldsymbol{b}\right|=3\),\(\left| \boldsymbol{e}\right|=1\),且\(\boldsymbol{a}\cdot\boldsymbol{b}-\boldsymbol{e}\cdot\left(\boldsymbol{a}+\boldsymbol{b}\right)+1=0\).则\(\left| \

  • 多变量函数的微分2019-09-27 19:02:11

    基本定义 设\[h=\left(h_{1}, h_{2}, \cdots, h_{n}\right)\] 如果 \[f\left(x_{0}+h\right)-f\left(x_{0}\right)=\sum_{i=1}^{n} \lambda_{i} h_{i}+o(\|h\|), \quad\|h\| \rightarrow 0\] 其中\(\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}\)不依赖于

  • 地理加权归回模型 (GWR) 参数估计2019-09-13 16:03:46

      作者:陈凤 (西安交通大学)   Stata连享会   计量专题 || 精品课程 || 简书推文 || 公众号合集 连享会:内生性问题及估计方法专题     连享会 空间计量专题 2019.10.24-27   文章目录连享会:内生性问题及估计方法专题[连享会 空间计量专题 2019.10.24-27](

  • 拉格朗日乘子、KKT条件与对偶问题2019-09-13 10:02:13

    文章目录1. 拉格朗日算子1.1 基本流程1.2 理解第一层理解:第二层理解:2. KKT条件2.1 一个限制条件的情况2.2 多个限制条件的情况3. 对偶问题3.1 原始问题3.1.1 一个限制条件的情况下3.2.2 多个限制条件的情况下3.2 转化者3.3 大小安排一波???4. 小结5. 参考文献 1. 拉格朗日算子

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有