ICode9

精准搜索请尝试: 精确搜索
  • Ultra-Light-Fast-Generic-Face-Detector-1MB的自定义数据集训练 | 多分类推理修改2021-09-22 13:59:40

    上一篇帖子我们介绍了如何修改源代码适应我们自己定义的数据集做一个多分类的目标检测任务。 Ultra-Light-Fast-Generic-Face-Detector-1MB的自定义数据集训练 | 多分类修改指南_Andrwin的博客-CSDN博客 训练好的权重会被保存在 项目根目录/models/train-version-RFB 这个文件夹

  • 平台总线(一)2021-09-20 21:02:36

    一、前面说到驱动编程的几种模型。我们已经可以自己手动的写一个简单的驱动设备了。 但是,从一开始我就觉得这种写法写的又很乱,然后每写一个设备就要写这么多东西,我们又这么多的设备那不是得占很多的空间。 然后我引入了平台总线的概念。 平台总线和IIC等其它总线的区别: 本质

  • 【.Net Core】【4】浅拷贝、深度拷贝2021-09-20 19:59:15

    文章目录 一、前言二、序列化标记三、浅拷贝复制四、深度拷贝复制:.net 5版本以前五、深度拷贝复制:.net 5 以后 .net core六、深度拷贝复制:独立封装七、总结 一、前言 开发过程中经常会遇到某个引用类型对象类的拷贝,拿到一个新的备份实列进行修改,而不影响原有的对象实例,

  • monkey基础 (7) - MonkeyRunner API2021-09-19 13:05:54

    MonkeyRunner工具主要有三个类: MonkeyRunner MonkeyDevice MonkeyImage 官方API文档 :http://www.android-doc.com/tools/help/monkeyrunner_concepts.html# MonkeyRunner类 MonkeyRunner提供连接真机和模拟器、输入、暂停、警告框等方法。 常用方法 waitForConnection(fl

  • XAxiDma_IntrGetIrq(AxiDmaInst, XAXIDMA_DEVICE_TO_DMA)2021-09-18 11:32:19

    #define  XAxiDma_IntrGetIrq(InstancePtr, Direction)    \             (XAxiDma_ReadReg((InstancePtr)->RegBase + \             (XAXIDMA_RX_OFFSET * Direction), XAXIDMA_SR_OFFSET) &\                             XAXIDM

  • MT7620A 完美支持32M SPI Flash2021-09-17 18:06:07

    MT7620A 完美支持32M SPI Flash 前言 基于在Openwrt19.07开源软件中修改。初步测试Openwrt21.02无此bug. OpenWrt的最新kernel(3.14.28)已经能够支持32M SPI Flash的读写以及擦除操作.然而,可能是系统考虑不周,亦或是MT7620系统的BUG,在配置了W25Q256的MT7620开发板系统上,无法 so

  • linux-umount时提示device is busy时,如何查找被何进程占用?2021-09-17 11:05:28

     umount时提示device is busy,如下:# umount /data/disk1umount: /data/disk1: device is busy.        (In some cases useful info about processes that use         the device is found by lsof(8) or fuser(1))         这时,可以使用fuser命令来查看:#

  • 基于flask部署yolov5 web服务(1)2021-09-16 22:57:50

    基于flask部署yolov5 web服务(1) 本文基于官网的yolov5通过flask框架将模型推断通过webserve的形式部署,客户端上传待检测的图片,服务器返回处理后的结果(结果可以是模型直接输出的字符串信息也可以是经过后处理画好框的图片),只是整体流程跑通,很多需要优化的地方。 代码: #本代码整

  • Windows x86环境下使用QEMU安装arm架构银河麒麟V10操作系统2021-09-16 19:04:54

    在琢磨arm架构下的一些技术问题,没有arm架构的电脑,钱不够时间来凑,花了一下午时间搞定。记录一下主要过程: 一、下载QEMU 二、下载麒麟V10桌面版 三、安装QEMU       安装的时候注意最好不要放在Program Files目录下,后面运行命令行会因为空格,需要特殊处理。       具体QEMU的版

  • VMware Workstation 与 Device/Credential Guard 不兼容.在禁用 Device/Credenti2021-09-16 17:34:33

    1.0  出现问题的原因: 原因一、出现此问题的原因是Device Guard或Credential Guard与Workstation不兼容。原因二、Windows系统的Hyper-V不兼容导致。 2.0  解决方案: 第一步:“win+ R“打开运行,输入gpedit.msc,确定打开本地组策略编辑器转到本地计算机策略 > 计算机配置 > 管理模板>

  • add eds file in Codesys2021-09-15 18:02:30

    How to use external device with eds file. The following is step by step. 1 Add device   2 add CANopen Manager   3 add your eds device if you haven't import eds file, use tools--add device--select your eds file.   4 set it's ID    

  • *** RuntimeError: CUDA error: out of memory.2021-09-14 21:33:06

    CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1.   这个error 的原因是,当期指定的GPU的显存不足,可以关闭现有的process,或者重指定显卡编号。

  • Linux设备树<转载>2021-09-14 16:05:25

    转载地址:http://blog.csdn.net/smcdef/article/details/77387975 1. Device Tree简介 Linus Torvalds在2011年3月17日的ARM Linux邮件列表宣称“this whole ARM thing is a fucking pain in the ass”,引发ARM Linux社区的地震,随后ARM社区进行了一系列的重大修正。在过去的A

  • 使用NI-DAQmx进行振动数据采集2021-09-13 17:33:22

    安装NiDAQ 20.0, 这是for win7 最后一个版本了.  有同事安装的版本不对,就会出现如下的错误      插上USB口的NI采集设备, 在NiMax程序里就能看见       如果没有Ni设备,可以安装仿真设备, 在[设备与接口]处点右键,[新建...]  没有插Ni仪器出来的异常 Additional inf

  • pytorch学习笔记2021-09-13 12:33:26

    一、tensor转化到gpu上运算: 默认情况下不允许跨 GPU 操作,除了 copy_()和 其他具有类似复制功能的方法,例如to()和cuda()。除非您启用点对点内存访问,否则任何在跨不同设备的张量上启动操作的尝试都会引发错误。 cuda = torch.device('cuda') # Default CUDA device cuda0 =

  • SQL 拿最新数据2021-09-11 14:35:05

    select device_no,data_time,so2_value,co_value,no2_value,pm10_value,pm25_value,o3_1h_value,o3_8h_value,tvoc_value from default.zjk_air_quality_device_hourly_data where (device_no,data_time) in (select device_no,max(data_t

  • Ubuntu 16.04 显卡型号查询命令2021-09-06 16:00:22

    2021-09-06 需要先安装显卡驱动,比如 NVIDIA的相应版本的显卡驱动   1. lspci strong@foreverstrong:~$ lspci 00:00.0 Host bridge: Intel Corporation Device 591f (rev 05) 00:01.0 PCI bridge: Intel Corporation Sky Lake PCIe Controller (x16) (rev 05) 00:08.0 System pe

  • RK audio 拨号同时输出Speaker和USB音频2021-09-06 15:00:51

      reference: [RK3399][Android7.1]修改系统配置同时输出Speaker和USB音频       Android Audio代码分析 - Audio Strategy 一.Android5.1 音频切换 frameworks\av\services\audiopolicy\AudioPolicyManager.cpp 1.1.策略对应的 stream type  AudioPolicyManager::routin

  • VS2019不能显示device(设备)菜单和Unity导出hololens2程序的正确设置2021-09-05 22:33:26

    虽然装2019的时候能装的我都选择了安装,可还是不能显示device,原以为是windwo SDK的版本的关系,后来重装的时候还专门选择了两个版本的SDK,装上后运行unity3d导过来的项目还是不显示device,后来才发现是因为 项目–>属性—>常规–>平台工具集中V142未安装,如下图所示。这时候怎么办呢

  • 【深度学习】pytorch多GPU训练2021-09-05 22:01:30

    原理 多卡训练的基本过程 首先把模型加载到一个主设备把模型只读复制到多个设备把大的batch数据也等分到不同的设备最后将所有设备计算得到的梯度合并更新主设备上的模型参数 #!/usr/bin/python3 # coding: utf-8 import torch from torchvision import datasets, transforms

  • Pytorch直接在GPU上创建张量报错2021-09-04 14:34:39

    Pytorch直接在GPU上创建张量报错:legacy constructor expects device type: cpubut device type: cuda was passed 一般的创建张量方法: torch.Tensor(x) # x可以是list或者np.array类型 但是这种创建方式默认是在把张量放在CPU(内存)中的。如果我们要使用GPU来训练模型,那么就还

  • usb device connect kernel log2021-08-27 23:00:06

    usb device connect kernel log 08-13 10:00:15.220 <4>[ 2790.586965] ==20201013==> hub_port_init 1 #008-13 10:00:15.220 <4>[ 2790.586974] Plug in USB Port3 08-13 10:00:15.352 <6>[ 2790.719122] usb 3-1: new high-speed USB device number 2

  • 杂项2021-08-26 14:02:50

    viewport 用于调控移动设备的可视区域   width:页面宽度,可以取值具体的数字,也可以是 device-width,表示跟设备宽度相等。height:页面高度,可以取值具体的数字,也可以是 device-height,表示跟设备高度相等。initial-scale:初始缩放比例。minimum-scale:最小缩放比例。maximum-scale:最大

  • pytorch中如何将CPU上运行的数据模型转到GPU上运行(mnist举例)2021-08-22 01:32:40

    首先贴一份在cpu上运行的代码 1 import torch 2 from torchvision import transforms 3 from torchvision import datasets 4 from torch.utils.data import DataLoader 5 import torch.nn.functional as F 6 import torch.optim as optim 7 8 batch_size = 64 9 tran

  • 【求助-pytorch运行报错】CUDA error: CUBLAS_STATUS_ALLOC_FAILED when calling `cublasCreate(handle)`2021-08-20 11:34:36

    问题如下: 1、利用pytorch复现googlenet网络 2、定义训练过程函数中 def train(epoch): running_loss = 0 # 损失值归零 for batch_idx, data in enumerate(train_loader, start=0): images, labels = data #将输入x和相应的标签y从数据中拿出来 # 将输

专注分享技术,共同学习,共同进步。侵权联系[admin#icode9.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有