ICode9

精准搜索请尝试: 精确搜索
  • 回归分析06:回归参数的估计(4)2021-12-08 01:02:55

    目录Chapter 6:回归参数的估计(4)3.8 岭估计3.8.1 岭估计的定义和性质3.8.2 岭参数的选择方法3.8.3 岭估计的几何意义3.9 主成分估计3.9.1 主成分估计的过程3.9.2 主成分估计的性质 Chapter 6:回归参数的估计(4) 3.8 岭估计 3.8.1 岭估计的定义和性质 当自变量之间具有多重共线性时,

  • 2.3 逻辑回归的代价函数(Logistic Regression Cost Function)2021-12-07 15:58:00

    逻辑回归的代价函数2.3-吴恩达老师课程 逻辑回归的代价函数(也翻译作成本函数)。 为什么需要代价函数: 代价函数是衡量我们训练的模型的好坏程度。 为了训练逻辑回归模型的参数 w w w和

  • 回归分析04:回归参数的估计(2)2021-12-06 17:00:38

    目录Chapter 4:回归参数的估计(2)3.3 约束最小二乘估计3.4 回归诊断3.4.1 模型的诊断3.4.2 数据的诊断 Chapter 4:回归参数的估计(2) 3.3 约束最小二乘估计 下面我们讨论在对 \(\beta\) 施加约束条件的情形下,求解 \(\beta\) 的最小二乘估计。 假设 \(A\beta=b\) 是一个相容线性方程

  • 无监督-DEEP GRAPH INFOMAX2021-11-29 12:33:33

    无监督-DEEP GRAPH INFOMAX 标签:图神经网络、无监督 动机 在真实世界中,图的标签是较少的,而现在图神经的高性能主要依赖于有标签的真是数据集 在无监督中,随机游走牺牲了图结构信息和强调的是邻域信息,并且性能高度依赖于超参数的选择 贡献 在无监督学习上,首次结合互信息提出了一

  • 回归分析03:回归参数的估计(1)2021-11-25 09:35:33

    目录Chapter 3:回归参数的估计(1)3.1 最小二乘估计3.2 最小二乘估计的性质 Chapter 3:回归参数的估计(1) 3.1 最小二乘估计 用 \(y\) 表示因变量,\(x_1,x_2,\cdots,x_p\) 表示对 \(y\) 有影响的 \(p\) 个自变量。 总体回归模型:假设 \(y\) 和 \(x_1,x_2,\cdots,x_p\) 之间满足如下线

  • fencing— Red hat cluster2021-11-24 18:34:43

    Red Hat Cluster Suite 组件 fencing FAQ 说明 Red Hat Cluster实现HA的关键组件之一是fencing。没有设置fencing,虽然看上去也能够运行Cluster,但是一旦遇到故障切换就会出现异 常,所以深入理解fencing原理,正确设置fencing对构建Red Hat Cluster有很大意义。 笔记以英文原文 2010-

  • 机器学习(第三章)3.3对数几率回归2021-11-22 23:30:02

    机器学习(第三章)3.3对数几率回归 1、对数几率回归的机器学习三要素 1.模型:根据具体问题,确定假设空间——此篇为线性模型,输出值范围为[0,1],为近似阶跃的单调可微函数; 2.策略:根据评价标准,确定选取最优模型的策略(通常会产生一个“损失函数”)——此篇由最大似然估计法、信息论来确

  • 实用机器学习——第四、五章2021-11-22 19:02:48

    4 ML模型回顾 4.1 机器学习介绍 算法类型 监督学习 在打标签后的数据上训练,去预测标签自监督学习(标号来自于数据本身)E.g. word2vec BERT 半监督学习 同时在标注和未标注上的数据上训练,通过已标注的数据去预测未标注数据 E.g. 自训练 无监督学习 在无标签数

  • 【RS-Defence】Adversarial Training on RS(附代码实现APR+LightGCN)2021-11-21 19:34:52

    Adversarial Recommendation Training 开源了一个小项目,将一些经典的RS模型整合到一套代码中,可以作为学习参考, GitHub地址:https://github.com/ChadsLee/RS_Zoos Adversarial Personalized Ranking for Recommendation (SIGIR’18) MF-BPR容易受对抗噪声影响 首先定义什么是噪

  • 李沐笔记(softmax回归)2021-11-20 13:59:06

    回归:估计一个连续值(房价问题) 分类:预测一个离散类别(预测图片中是猫是狗) kaggle上的分类问题:将人类蛋白质显微镜图片分成28类、将恶意软件分成9类、将恶意的Wikipedia评论分成7类。        损失函数:   softmax回归从0开始实现 import matplotlib.pyplot as plt import to

  • DecisionCamp 2019, Decision Manager, AI, and the Future2021-11-18 20:32:52

    RedHat DMN AI - 国内版 Bing https://cn.bing.com/search?q=RedHat+DMN+AI&qs=n&form=QBRE&sp=-1&pq=redhat+dmn+ai&sc=0-13&sk=&cvid=54EDAE626E1E4602AD10BFD794AA2970 DecisionCamp 2019, Decision Manager, AI, and the Future https://www.red

  • Scalable Rule-Based Representation Learning for Interpretable Classification2021-11-17 19:02:32

    目录概主要内容 Wang Z., Zhang W., Liu N. and Wang J. Scalable rule-based representation learning for interpretable classification. In Advances in Neural Information Processing Systems (NIPS), 2021. 概 传统的诸如决策树之类的机器学习方法具有很强的结构性, 也因

  • CF623E Transforming Sequence 题解2021-11-12 19:31:15

    传送门 【分析】 不难想到,令 \(f_{n, k}\) 表示前 \(n\) 个数,使得 \(b_n\) 有 \(k\) 个 \(1\) 的方案数 则很容易列出转移方程,由于 \(a_i>0\) ,故 \(\displaystyle f_{n, k}=\sum_{i=0}^{k-1} \binom k if_{n-1, i}\cdot 2^i\) 变形得到 \(\displaystyle {f_{n, k}\over k!}x^k=\s

  • Python+SVM2021-11-11 19:34:30

    # !/usr/bin/env python # encoding: utf-8 # SVM算法 支持向量机 from sklearn import svm import numpy as np from sklearn import model_selection import matplotlib.pyplot as plt import matplotlib as mpl from matplotlib import colors from sklearn.datasets import

  • 并行多任务学习论文阅读(四):去偏lasso实现高效通信2021-11-10 21:04:05

    1.难点-如何实现高效的通信 我们考虑下列的多任务优化问题: \[ \underset{\textbf{W}}{\min} \sum_{t=1}^{T} [\frac{1}{m_t}\sum_{i=1}^{m_t}L(y_{ti}, \langle \bm{w}_t, \bm{x}_{ti} \rangle)]+\lambda \text{pen}(\textbf{W}) \tag{1} \]这里\(\text{pen}(\mathbf{W})\)是一个

  • 动手学深度学习v2-09-04-softmax回归的从零开始实现¶2021-11-04 22:04:37

    1 softmax回归的从零开始实现 #使用Fashion-MNIST数据集,并设置数据迭代器的批量大小为256 from IPython import display from mxnet import autograd,gluon,np,npx from d2l import mxnet as d2l npx.set_np() batch_size = 256 train_iter, test_iter = d2l.load_data_fash

  • 二元逻辑回归损失函数的数学解释与公式推导2021-11-04 12:01:48

    我们基于极大似然法来推导二元逻辑回归的损失函数,这个推导过程能够帮助我们了解损失函数怎么 得来的,以及为什么 J ( θ ) J(\the

  • red hat 6.9 安装完+配置完ip后的系统设置(system service)2021-10-27 11:37:05

    一.系统设置中可以选择取消屏保(screensaver) 二.set up 选择system service ,勾选rsh(用于支持远程shell管理)和rsftpd(ftp插件,传输) 三.开启smb用于在windos上使用client时可以连接作为服务器的red hat端 四.重启配置文件xinetd使以上命令生效 五.进入hosts文件添加对应的ip地址和hostn

  • 给图片中的人脸添加特效(帽子)2021-10-25 00:02:00

    给图片中的人脸添加特效(帽子) 人脸特效流程和原理拆解 1数据准备 首先要准备帽子和人脸照片,加载到项目的目录中 2人脸检测 首先调用OpenCV中的库函数对照片进行人脸检测,得到人脸矩形的各参数值,从而可以得到帽子要加在什么位置上去,由于人脸照片和帽子照片的大小位置的不同,所以

  • 修改red hat 6系统时间2021-10-21 18:01:14

    修改red hat 6系统时间 date,查看系统时间 cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime 执行完这个命令后 再次执行date查看系统时间,发现时间更改为上海时间 用reboot重新启动查看date也是上海时间

  • 2021-10-192021-10-19 21:58:41

    Lesson 6.动态计算图与梯度下降入门   在《Lesson 5.基本优化思想与最小二乘法》的结尾,我们提到PyTorch中的AutoGrad(自动微分)模块,并简单尝试使用该模块中的autograd.grad进行函数的微分运算,我们发现,autograd.grad函数可以灵活进行函数某一点的导数或偏导数的运算,但微分计算

  • 递归最小二乘估计2021-10-18 23:31:25

    @[TOC](递归最小二乘估计(Recursive Least Square Estimation)) 递归最小二乘估计(Recursive Least Square Estimation) 随着测量次数增加,最小二乘计算量计算量会快速增加,递归最小二乘给出了在线实时计算的递推方程。 矩阵的迹 可参考链接 导数性质

  • liunx系统2021-10-18 22:59:35

    Liunx——(操作系统的一种) Linux,全称GNU/Linux,是一套免费使用和自由传播的类Unix操作系统,是一个基于POSIX的多用户、多任务、支持多线程和多CPU的操作系统。 特点:免费,多用户多任务,界面黑窗口,多平台 Linux由众多微内核组成,其源代码完全开源; Linux 的各个发行版本使用的是同一

  • 简单了解 Interferometry 干涉测量技术2021-10-11 15:33:10

    参考论文:Principles of image reconstruction in optical interferometry: tutorial;Image reconstruction in optical interferometry: benchmarking the regularization; 简单解释做了什么:The principle of interferometry is to recombine coherently the beams from two or more

  • NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis2021-10-10 16:00:50

    目录概主要内容positional encoding额外的细节代码 Mildenhall B., Srinivasan P. P., Tancik M., Barron J. T., Ramamoorthi R. and Ng R. NeRF: representing scenes as neural radiance fields for view synthesis. In European Conference on Computer Vision (ECCV), 2020.

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有