ICode9

精准搜索请尝试: 精确搜索
  • kernel slab misc2021-09-25 20:33:12

    kernel slab misc console:/sys/kernel/slab # ls :0000008 bio-0 kioctx :0000016 bio-1 kmalloc-128 :0000024 bio-2 km

  • markdown学习笔记2021-09-22 23:30:25

    # markdown学习笔记 ### 感谢菜鸟教程 # 标题 ### 1、使用 = 和 - 标记一级和二级标题 这个是一级标题 ====== 这个是二级标题 ------ 使用#表示1-6级标题 # 一级 ## 二级 ### 三级 #### 四级 ##### 五级 ###### 六级 段落换行使用2+个空格+回车   或者使用空行 # 字体 *斜体*

  • 广义相对论-学习记录2-第二章-狭义相对论2021-09-18 20:02:56

    第二章:狭义相对论 1、洛伦兹变换 Lorentz方程   狭义相对性原理表示,自然规律对洛伦兹变换群是不变的。所谓的洛伦兹变换,是由一个时空坐标系 x α x^\alp

  • Estimation of Non-Normalized Statistical Models by Score Matching2021-09-18 16:35:47

    目录概主要内容方法损失函数的转换一个例子 Hyv"{a}rinen A. Estimation of Non-Normalized Statistical Models by Score Matching. Journal of Machine Learning Research, 2005. 概 我们常常会建模如下的概率模型: \[p(\xi;\theta) = \frac{1}{Z(\theta)} q(\xi; \theta). \]

  • 基于分析Laplace方程“放射状”函数特解的基本解引入2021-09-17 22:01:52

    基于分析Laplace方程“放射状”函数特解的基本解引入 参考文献:【偏微分方程笔记(2)——Laplace(位势)方程的基本解】 1. 基本定义 关于函数 u ( x

  • 编程基础内容 - functools.partial2021-09-14 18:33:45

    functools.partial 固定函数的一些形参值 from functools import partial RECORD_SIZE = 32 with open('./data/files.data', 'rb') as f: records = iter(partial(f.read, RECORD_SIZE), b'') for r in records: print(r) b'1 2

  • DW李宏毅机器学习笔记--Task04(下)-反向传播2021-08-25 13:05:57

    文章目录 前言背景梯度下降链式法则 反向传播取出一个Neuron进行分析 Forward PassBackward Passcase 1: Output layercase 2 : Not Output Layer 总结 前言 这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,之后还

  • OpenCV 之 自定义滤波2021-08-25 08:00:40

        图像处理中,"空间域" 指的是图像平面,因此,空间滤波 可定义为:在图像平面内对像素灰度值进行的滤波  1  空间滤波  1.1  滤波过程     如图,Filter 是一个 3x3 滤波核,当它从图像的左上角开始,逐个像素沿水平方向扫描,最后到右下角时,便会产生滤波后的图像            

  • 物理模拟——PBF流体模拟(1)2021-08-25 01:01:47

    本文是有关我大学毕设的一个总结,毕设题目为:基于粒子法流体动力学的物理仿真引擎开发,实际工作为基于图形API,搭建起一套简单的渲染框架,并且基于此框架实现CPU端流体模拟算法Position Based Fluid,仓库地址为:https://gitee.com/FlyingZiming/fluid-simulation-engine 目录介绍基于物

  • softmax 在计算图中的前向和后向2021-08-22 21:01:53

    一 简介 题外话:昨晚将矩阵求导复习了一遍,仔细推导了大部分公式,这次复习略有体会,相比第一次学习更加熟悉了,这种东西就应该多看看,常看常新。矩阵求导,它的本质就是多元函数的求导,矩阵只是为了方便书写,是一种整体的视角。矩阵求导,还可以用矩阵加下标表示标量来逐元素求导,是一种微观的

  • 一文学会在Markdown中编辑数学符号与公式2021-08-22 18:32:24

    在用Markdown写博客时会涉及到数学符号与公式的编辑,下面进行汇总。随手记录,方便你我他。 行内公式:将公式插入到本行内 $0.98^{365} \approx 0.0006$ 我的365天:\(0.98^{365} \approx 0.0006\) 单独的公式块:将公式插入到新的一行内,并且居中 $$ 1.02^{365} \approx 1377.4 $$

  • 自适应动态规划(ADP)基础(1)2021-08-21 21:31:22

    1 基础概念 动态规划是利用最优性原理来解决最优和最优控制问题的一个非常有用的工具。最优性原则可以表示为:“最优策略具有这样的性质:无论初始状态和初始决策是什么,其余决策都必须构成与第一个决策产生的状态相关的最优策略。” 动态规划有几个方面。人们可以考虑离散时间系统或

  • Backward Propagation 反向传播2021-08-21 10:32:09

    深度学习神经网络训练过程主要涉及到两个过程,一个是数据前向传播(data forward-propagation),输入数据经过网络正向计算,输出最终结果;另一个是误差反向传播(error backward-propagation),网络输出结果的误差和梯度反向传播,并更新权重。反向传播过程又可以细分为两部分:1)求梯度;2)梯度下

  • 机器学习:P3-P4 Regression2021-08-19 01:04:03

    Application Stock Market Forecast Self-driving Car Recommendation Linear model 基本形式:\(y=b+\sum w_i x_i\) 损失函数Loss function L : Input: a function, output: how bad it is \(L(f)=L(w,b)=\sum_{n=1}^N(\widehat{y}^n-(b+w*x_{cp}^n))^2\) $f^*=\arg minL(f)

  • ADP算法中AC网络的更新方式2021-08-10 17:01:58

    以离散时间系统为例,对自适应动态规划(Adaptive Dynamic Programming,ADP)中Action Network和Critic Network两个网络的更新方式进行说明。 一、系统定义 1.状态方程 state equation ${X_{k + 1}} = {F_k}({X_k},{U_k})$(1) 其中数学公式: $ U $是控制指令,数学公式: $ F $是关于状态

  • FEM物理引擎解析2021-08-08 19:03:11

    FEM 把物体分为多个基本图元,如四面体。 我们可以用四面体的顶点集合来表示这个物体。 1. FEM物理引擎工作流 Loop: 通过受力更新顶点速度 碰撞检测<先导顶点位置更新> 顶点位置更新 2. 顶点位置更新 为了达到更好的效果使用后向欧拉法, x表示位置,t表示时间,可以导出两个公式: 下时

  • 逻辑回归原理及代码实现2021-08-02 22:58:15

    文章目录 逻辑回归原理逻辑回归的主要参数逻辑回归的流程逻辑回归的损失函数梯度下降算法基于链式法则的梯度计算向量化实现梯度计算 逻辑回归代码实现获取二分类数据定义初始化模块定义损失函数及梯度定义梯度下降算法定义预测模块定义逻辑回归模型运行模型 总结 逻辑回

  • 【变分法学习笔记(二)】变分法中的欧拉方程的退化形式2021-08-02 03:32:45

    目录前言1、F=v(x,y)√(1+y'²)2、F=F(x,y')3、F=F(y,y') 前言 在上一篇文章 【变分法学习笔记(一)】变分法中的欧拉方程的细致讲解&详细推导 - 间宫羽咲sama - 博客园 (cnblogs.com) 中,我们对各种形式的欧拉方程进行了推导,从最简单的 \(1\) 方程 \(1\) 变量 \(1\) 次的欧拉方程,一路

  • 【牛顿-莱布尼茨公式的n维推广】外微分公式、斯托克斯公式、广义斯托克斯公式2021-08-01 23:31:55

    目录0、前言&引子0.1、本文要求的预备知识0.2、牛顿-莱布尼茨公式0.3、格林公式0.4、高斯公式0.5、斯托克斯公式0.6、广义斯托克斯公式(牛顿莱布尼茨公式的推广)1、记号说明1.1、求边界记号∂Ω的含义1.2、流形1.3、楔形积(dx∧dy)=-(dy∧dx)1.4、外微分记号dω的含义2、用「广义斯

  • pytorch的自动微分学习笔记2021-07-27 14:07:40

    自动微分的b站视频 学习的教程网址 问题解决方法的博客 符号微分 数值微分 自动微分(AD),包括前向自动微分和后向自动微分两种模式 上图的推导如下: v

  • 机器学习——随机梯度下降2021-07-26 01:32:38

      在经典的随机梯度下降算法中,我们的迭代下降公式是    $x_{t+1}=x_{t}-\alpha \nabla f\left(x_{t}\right)$  以一元线性回归的目标函数    $\sum \limits _{i=1}^{n}\left(a x_{i}+b-y_{i}\right)^{2}$  为例,其梯度可以表达为    $\left(\frac{\partial g}{\p

  • Typora快捷键2021-07-19 10:35:30

    转自  hongda's blog windows快捷键:# 无序列表:输入-之后输入空格 有序列表:输入数字+“.”之后输入空格 任务列表:-[空格]空格 文字 标题:ctrl+数字 表格:ctrl+t 生成目录:[TOC]按回车 选中一整行:ctrl+l 选中单词:ctrl+d 选中相同格式的文字:ctrl+e 跳转到文章开头:c

  • Solution -「多校联训」Sample2021-07-16 22:32:45

    \(\mathcal{Description}\)   Link   (稍作简化:)对于变量 \(p_{1..n}\),满足 \(p_i\in[0,1],~\sum p_i=1\) 时,求 \(\max \sum_{i=1}^n(p_i-p_i^2)i\)。   数据组数 \(T\le10^5\),\(n\le10^6\)。 \(\mathcal{Solution}\)   Lagrange 乘子法的板题,可惜我不会。(   先忽略 \(p_i

  • 2021-07-132021-07-13 19:30:50

    Datawhale组队学习之集成学习——Task1 数学基础 集成学习高等数学随机事件与概率课程作业(最小解发现) 集成学习 高等数学 函数的定义 定义:设数集 D ⊂ R

  • 拉普拉斯算子的极坐标、柱坐标和球坐标表示2021-07-13 12:33:53

    \documentclass{article} \usepackage{amsmath} \usepackage{amsthm} \usepackage{amsfonts} \usepackage{ctex} \usepackage{mathrsfs} \begin{document} \section{极坐标变换下的Laplace算子} 对于函数$u=u(x,y)$,其中$(x,y)\in D_{xy}\subseteq \mathbb R^2\backslash\{(0,0)

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有