ICode9

精准搜索请尝试: 精确搜索
  • Ch12 块设备I/O和缓冲区管理2021-11-20 22:33:35

    Ch12 块设备I/O和缓冲区管理 12.1 块设备I/O缓冲区 I/O缓冲的基本原理 文件系统使用一系列I/O缓冲区作为块设备的缓存内存。 当进程试图读取(dev, blk)标识的磁盘块时,它首先在缓冲区缓存中搜索分配给磁盘块的缓冲区。 如果该缓冲区存在并且包含有效数据,那么它只需从缓冲区中

  • 2021-2022-1 20191315《信息安全系统设计与实现(上)》学习笔记102021-11-20 22:03:05

    第十二章 块设备I/O和缓冲区管理 块设备I/O缓冲区 文件系统使用一系列IO缓冲区作为块设备的缓存内存。当进程试图读取(dev,blk)标识的磁盘块时,它首先在缓冲区缓存中搜索分配给磁盘块的缓冲区。如果该缓冲区存在并且包含有效数据,那么它只需从缓冲区中读取数据,而无须再次从磁盘中读

  • 《Unix/Linux系统编程》第十二章学习笔记2021-11-20 21:32:59

    块设备I/O和缓冲区管理 块设备I/O缓冲区 由于与内存访问相比,磁盘I/O速度较慢,所以不希望在每次执行读写文件操作时都执行磁盘I/O。因此,大多数文件系统使用I/O缓冲来减少进出存储设备的物理I/O数量。合理设计的I/O缓冲方案可显著提高文件I/O效率并增加系统吞吐量。 I/O缓冲区原理:文

  • 《Unix/Linux系统编程》第十二章学习笔记2021-11-19 18:31:28

    第十二章 块设备I/O和缓冲区管理 知识点总结 本章讨论了块设备 I/O和缓冲区管理;解释了块设备I/O的原理和I/O缓冲的优点;论述了Unix 的缓冲区管理算法,并指出了其不足之处;还利用信号量设计了新的缓冲区管理算法,以提高 I/O缓冲区的缓存效率和性能;表明了简单的PV算法易于实现,缓存

  • 【Matlab车牌识别】BP神经网络车牌识别(带语音播报)【含GUI源码 668期】2021-11-18 16:30:00

    一、代码运行视频(哔哩哔哩) 【Matlab车牌识别】BP神经网络车牌识别(带语音播报)【含GUI源码 668期】 二、matlab版本及参考文献 1 matlab版本 2014a 2 参考文献 [1] 蔡利梅.MATLAB图像处理——理论、算法与实例分析[M].清华大学出版社,2020. [2]杨丹,赵海滨,龙哲.MATLAB图像处理

  • 细碎的优化记录2021-11-15 18:00:51

    没法整成一篇文章的就先丢在这里了 干了挺久的优化了来简单谈谈目前ue项目的优化 1.大量用在血条 跳字 以及提示的UI  widget component  不推荐使用world类型 每多一个这种ui在ios上会多0.1ms开销(pc一样) 使用world 3d ui的需求可以用billboard代替。     2. 尽可能地减少

  • 【Matlab车牌识别】BP神经网络车牌识别【含GUI源码 669期】2021-11-14 13:32:19

    一、代码运行视频(哔哩哔哩) 【Matlab车牌识别】BP神经网络车牌识别【含GUI源码 669期】 二、matlab版本及参考文献 1 matlab版本 2014a 2 参考文献 [1] 蔡利梅.MATLAB图像处理——理论、算法与实例分析[M].清华大学出版社,2020. [2]杨丹,赵海滨,龙哲.MATLAB图像处理实例详解[M]

  • C++图书管理系统2021-11-14 12:58:00

    仅供参考! 代码: #include <stdio.h> #include <stdlib.h> #include <string.h> #define AVAILABLE 0 #define UNAVAILABLE 1 #define MAXNAME 30 #define CLEAR "cls" typedef struct book{ char *name; int id; int count; int stat

  • 【人工智能导论:模型与算法】慕课笔记1 误差反向传播 CODE2021-11-13 02:00:07

    目标值 与 误差值,反了。 没发现原因 ~ import math def back_propagation(x0,x1,w0,w1,w2,y,N): # y = 1 / (1 + math.exp( -((x0 * w0) + (x1 * w1) + w2))) print("\n=============================NO",N,"=============================") N = N-

  • 实验2 多个逻辑段的汇编源程序编写与调试2021-11-12 09:35:18

    实验任务1 任务1-1 <task1_1.asm> 调试到line19之前的截图:  ① 在debug中将执行到line17结束、line19之前,记录此时:寄存器(DS) = _076A_, 寄存器(SS) = _076B_, 寄存器(CS) = _076C_ ② 假设程序加载后,code段的段地址是X,则,data段的段地址是_X-2_, stack的段地址是 _X-1_。(十六进制)

  • 实验二2021-11-09 11:33:27

    实验任务1_1      在debug中将执行到line17结束、line19之前,记录此时:寄存器(DS) = _076A___, 寄存器(SS) =_076B_, 寄存器(CS) = 076C 假设程序加载后,code段的段地址是X,则,data段的段地址是_X-2H_, stack的段地址是_X-1H_  任务1-2     1在debug中将执行到line17结束、l

  • 实验2 多个逻辑段的汇编源程序编写与调试2021-11-08 08:33:53

    1. 实验任务1 task1_1调试到line17结束、line19之前截图: 问题回答 ① 在debug中将执行到line17结束、line19之前,记录此时:寄存器(DS) = 076A 寄存器(SS)= 076B, 寄存器(CS) = 076C ② 假设程序 加载后,code段的段地址是X,则,data段的段地址是X-2, stack的段地址是 X-1。 任务1-2 task

  • Python纯手动搭建BP神经网络--手写数字识别2021-11-04 22:58:12

    1 实验介绍 实验要求: 实现一个手写数字识别程序, 如下图所示, 要求神经网络包含一个隐层, 隐层的神经元个数为 15。 整体思路:主要参考西瓜书第五章神经网络部分的介绍,使用批量梯度下降对神经网络进行训练。 Tip: 整体代码及数据集链接在文末 2 读取并处理数据 数据读取思路: 数

  • Python BP反向传播神经网络2021-11-01 09:31:12

    Code: import numpy as np """Sigmod激活函数""" def sigmod(x): return 1.0/(1.0 + np.exp(-x)) def BackpropCE(W1,W2,X,D): alpha = 0.9 #学习率 N=4 #4层网络 for k in range(N): x = X[k,:].T #对数据每行转置

  • 英国告急!无油可售!加油站大排长龙 | 经济学人早报精选2021-10-26 08:34:02

    文 / 王不留(微信公众号:考研英语笔记)   2021年9月29号的清晨,来杯“经济学人浓香咖啡”,提神解困。   Crisis, what crisis? Britain’s fuel shortage     Last weekend Britain basked in unseasonably sunny weather. But many Britons had little time to enjoy it. Drivers

  • SAP-MM 删除BP建立錯誤客戶/供應商主檔2021-10-21 16:35:27

    事件:  在上线初期,有很多错误资料,现在对这些BP进行清理。 方法:   把这些要删除的客户统一打上删除标记(TCODE:BUPA_PRE_DA或mass),然后批量删除(TCODE:BUPA_DEL)。前提是这些BP没有在系统中没有进行任何后续业务活动,否则无法删除。   BUPA_PRE_DA  给BP打上删除冻结标识和归档ar

  • 汇编语言 第8章 数据处理的两个基本问题2021-10-18 23:33:48

    处理数据时有两个基本问题: 处理的数据存储在什么地方? 处理的数据有多长?字节、字还是双字? 寄存器bx、bp、di、si,只有这四个寄存器可以用于寄存器间接寻址,它们之间可以特定组合。 用不太标准的语言来说,bx和bp是同一等级,di和si是同一等级且比bx、bp低一级,bx和bp不能同时使用,di和si

  • np实现BP-与torch模型比较2021-10-18 21:34:27

    import numpy as np import torch import torch.nn as nn import copy class TorchModel(nn.Module): def __init__(self, input_dim): super(TorchModel, self).__init__() self.line_layer = nn.Linear(input_dim, input_dim, bias=False) se

  • sqli_labs less-20(cookie注入)2021-10-15 21:00:51

    因为前期已经做过堆叠查询时候将密码换成123456,所以这次登录账户名密码为以下内容  通过bp抓包,分析发现为字符型,  所以在后面加一个#,发现回显正常  此时考虑用报错注入。查出数据库名字  

  • 吴恩达机器学习中BP神经网络算法公式的详细推导2021-10-14 20:58:39

      Andrew Ng在他的机器学习课程中讲述bp神经网络时,并没有深究这算法背后的推导过程,只是给了我们一个大体的执行步骤,实现了这个算法但却不知道这个算法背后的原理是件很痛苦的事。在看了知乎、csdn、简书后发现有很多人采用矩阵求偏导之类的推导步骤。诚然,这么干可以使公式

  • 命令执行:命令执行012021-10-14 14:06:07

    靶场地址:http://whalwl.xyz:8033/ 解题准备:BP抓包,了解linux基本解压命令 解题思路: 1、BP抓包,替换POST中name的值 backup.tar.gz;echo '<?php @eval($_POST["x"]); ?>' >shell.php  2、成功上传  3、使用蚁剑连接        http://whalwl.xyz:8033/shell.php 密码为 x

  • 神经网络 BP 浅析2021-10-14 01:01:02

    先分析输入为向量的场合,然后在此基础之上分析输入为批向量(矩阵)的场合 (之后更新输入为矩阵的场合) 注意 我们下文提到的向量都是列向量。小写字母表示向量,大写字母矩阵,带有下标的小(大)写字母表示向量(矩阵)的成员。 其中, \[W_i \]表示矩阵 W 的第 i 个列向量 \[W_{i,-} \]表示矩阵 W 的

  • 神经网络 | BP神经网络-数字识别(附源代码)2021-10-13 19:02:19

    ===================================================== github:https://github.com/MichaelBeechan CSDN:https://blog.csdn.net/u011344545 ===================================================== 神经网络 | BP神经网络介绍(附源代码:BP神经网络-异或问题) BP网络-数字识别.

  • BP神经网络-- 基本模型2021-10-13 12:33:23

            BP 神经网络中的 BP 为 Back  Propagation 的简写,最早它是由Rumelhart、McCelland等科学家于 1986 年提出来的,Rumelhart 并在Nature 上发表了一篇非常著名的文章 《Learning representations by back-propagating errors》 。随着时代的迁移,BP神经网络理论不断的

  • 机器学习——神经网络模型2021-10-11 13:01:53

    在“M-P神经元模型”中,神经元接收到来自个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接进行传递,神经元接收到的总输入值将与神经元的阈值进行比较,然后通过“激活函数”处理以产生神经元的输出。常用Sigmoid函数作为激活函数。 把许多个这样的神经元按一定额层次结

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有