ICode9

精准搜索请尝试: 精确搜索
  • Linux查看当前Cuda(CUDA Toolkit )版本2022-08-14 14:31:33

    纯转载、 cat /usr/local/cuda/version.txt nvcc-V nvidia-smi查看的不是当前cuda版本,而是最高支持的cuda版本 https://blog.csdn.net/hb_learing/article/details/115534219

  • Windows11使用WSL Ubuntu搭建paddle的GPU环境2022-08-14 01:32:50

    Windows11使用WSL Ubuntu搭建paddle的GPU环境 最近升级到了Windows11,突然有个大胆的想法:在Windows11上安装WSL,将所有开发环境安装到WSL中。这样就能在windows各种QQ/微信/Steam玩的飞起,又能在Linux中敲代码。 当前时间:2022-08-13,本文章中所有步骤都是根据官网的安装方法,如果时间比

  • MindSpore:CUDA编程(六)存储单元2022-08-11 18:32:20

    CUDA的存储单元包含以下类型:   如下表所示: 名称位置用途使用方法限制备注 Register寄存器 GPU的SM上 存储局部变量   每个SM上有成千上万个一个线程最大数量为256个需要省着用 线程私有,最快线程退出则失效 Shared memory GPU芯片上 实现Block内的线程通信,目前最快的多Thre

  • MindSpore:CUDA编程(五)Event2022-08-11 18:32:05

    Event是CUDA中的事件,用于分析、检测CUDA程序中的错误。 一般我们会定义一个宏: #pragma once #include <stdio.h> #define CHECK(call) \ do \ {

  • MindSpore:CUDA编程(四)Global Memory2022-08-11 18:31:45

    在GPU上,on-board memory包含以下类型: local memory 每个thread一个。线程私有。 global memory 每个grid一个。每个thread都可以读。 constant memory 每个grid一个。只读。每个thread都可以读。 texture memory 每个grid一个。只读。每个thread都可以读。 on-chip memory包含以

  • MindSpore:CUDA编程(三)线程层次2022-08-11 18:31:34

    线程层次的概念: 简单说,就是一个grid有多个block,一个block有多个thread. grid有多大,用gridDim表示它有多少个block,具体分为gridDim.x, gridDim.y,gridDim.z。 block有多大,用blockDim表示它有多少个thread,具体分为blockDim.x,blockDim.y,blockDim.z。 怎么表示thread在block中的相对

  • GPU-CUDA-图形渲染分析2022-08-05 06:00:28

    GPU-CUDA-图形渲染分析 参考文献链接 https://mp.weixin.qq.com/s/dnoqPxEt_XEhVaW_aAfrnQ https://mp.weixin.qq.com/s/1NumM2PRTqW-HIfQRlUu8A https://mp.weixin.qq.com/s/d8Dq0YmjHpsoCchy8y4B2g https://mp.weixin.qq.com/s/5JorA1BJXgeftzrqItJV9g https://mp.weixin.qq.com

  • GPU、CUDA含义2022-07-20 14:31:47

    GPU(Graphics Processing Unit):图形处理器主要是指利用显卡上的GPU来代替CPU进行图形运算上的加速功能。 CUDA(Compute Unified Device Architecture):显卡厂商NVIDIA推出的运算平台。 CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。   查看GPU显卡:

  • docker中安装Nsight,分析cuda计算对GPU的利用效率2022-07-19 23:34:48

        最近刚开始接触CUDA,性能分析的时候免不了要使用Nsight工具,docker中又没有安装,就需要在自己的环境中配置了。 1. 运行docker   2. NSight安装准备 官方对Nsight的支持文档中,需要执行deviceQuery命令确定系统上的CUDA驱动程序和运行时版本,Ubuntu系统的deviceQuery在: cd /usr

  • Pytorch及Yolov5环境配置及踩坑2022-07-16 14:35:19

    Pytorch及Yolov5环境配置及踩坑 1.何为Yolov5 yolo是计算机视觉方面用来进行目标检测的一个十分出名的开源框架,我搜不到官方的对此概括性的定义,但实际上也没什么必要,更重要的是会使用,更更重要的是理解其底层的实现逻辑 知乎 知乎2 对于我现在的数学水平,想了解底层实现逻辑的10%,都有

  • 解决pytorch多线程共享全局变量问题:Cannot re-initialize CUDA in forked subprocess. To use CUDA with multiprocessin2022-07-13 09:36:17

    原因:在Python3中使用 spawn 或 forkseverver 启动方法才支持在进程之间共享CUDA张量。而我是用的multiprocessing 是使用 fork 创建子进程,不被 CUDA 运行时所支持 在程序最开始的地方加上: torch.multiprocessing.set_start_method(‘spawn’)  

  • pytorch的cuda版本安装2022-07-05 13:03:30

    机器上加了RTX3060的卡,cuda装的11.1的版本,cudnn还不是特别清楚装的哪个版本?vs是2017这个版本的。下面来装pytorch。主要参考这个网站的内容“https://blog.csdn.net/weixin_43760844/article/details/115612970”。 在anaconda里输入这几行代码 import torch import tensorflow as

  • 六月总结&七月计划2022-07-02 15:37:54

    六月总结 1. 主要任务 onnxruntime推理库学习 目标: API接口学习+log模块学习+总结 进展: 未完成,大概看了接口那块的内容,整体onnxrutime的框架比较复杂,未能掌握。目前我对后端引擎的框架和接口设计掌握的太少了,这块找相关资料又很少,只能从相关库的学习中去自己总结,累。 总结: 无 反

  • NVCC编译器选项2022-07-02 13:09:22

    NVCC编译器选项 文档地址:https://docs.nvidia.com/cuda/cuda-compiler-driver-nvcc/index.html 1、在cu文件中,nvcc会定义__CUDACC__这个宏,但是cpp文件中不会。 2、 3、  

  • 搭建TensorFlow-GPU2022-07-01 21:01:19

    步骤 step1 1.1 下载 下载安装Anaconda3 链接:Anaconda3 当然也可以从清华大学开源镜像站下载 链接:清华大学开源镜像站Anaconda3下载地址 1.2 安装 安装很简单,一步步跟着建议安装就行 这里不建议勾选,不勾选添加到环境变量,后续可以用Anaconda Prompt 后面一步步就OK了 Step2 2.1

  • 【pytorch】深度学习2022-06-30 22:02:23

    【视频来源】 一 python安装环境 pycharm+anaconda 二 创建python虚拟环境以及pip国内源设置  1创建: 目前兼容性比较好的版本 conda create -n py38 python=3.8 问题1:Collecting package metadata (current_repodata.json): faile 解决方案一 问题2:终端前有PS 输入CMD(PS表示py

  • Tesla T4 与 RTX3090Ti 性能对比;深度学习方向效率对比;2022-06-30 14:04:42

    部分数值由于厂家不同,略有出入   Nvidia Tesla T4 Nvidia RTX 3090Ti 该参数的作用 架构   Turing架构 Ampere架构    VERSUS网评分 52分 94分 综合评分   Tensor核心数 320个Tensor Core 656个Tensor Core 张量核支持混合精度计算,动态调整计算以加快吞吐量,同时

  • 【软件环境安装与使用】GeForce RTX 3080 with CUDA capability sm_86 is not compatible with the current PyTorch in2022-06-29 18:35:58

    前言 博主在运行edgeai_yolov5的时候,出现了一些意料之外的错误,记之。 问题: NVIDIA GeForce RTX 3080 Ti with CUDA capability sm_86 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_7

  • 跑Tensorflow模型设置用GPU的一些总结2022-06-28 23:35:12

    https://blog.csdn.net/qq_42250789/article/details/107070520   目录 一、查看是否用了GPU跑代码 二、用GPU跑代码,观察GPU情况 三、设置用GPU跑代码的方法 四、查看/安装cuda、cudnn版本 五、代码一些问题 错误1:No module named 'tensorflow.contrib' 错误2:AttributeError: mod

  • CUDA Fortran中如何定义block和thread的维度2022-06-28 23:04:55

    CUDA Fortran中如何定义block和thread的维度 在CUDA中,存在grid,block,thread的概念,而在调用核函数时,这些参数需要我们人为地去指定.当这三个参数为一维时只需要用一个整形变量去定义即可.但当需要定义二维及以上的grid,block和thread时,在 CUDA C 中只需要用dim3关键字,如 dim3

  • CUDA ---- Hello World From GPU2022-06-27 17:00:51

    CUDA ---- Hello World From GPU   本篇博文仅实现hello world,先看到效果,具体细节将在后续博文解释。 准备 如果你是第一次使用CUDA,在Linux下可以使用下面的命令来检查CUDA编译器是否安装正确: $ which nvcc 一般,该指令输出为: /usr/local/cuda/bin/nvcc 另外,你可能还需要检查

  • Hands-On GPU Programming with Python and CUDA 电子书 pdf2022-06-27 13:00:51

    中文版好像叫《GPU编程实战(基于Python和CUDA)》   关注公众号:红宸笑。 回复:电子书 即可  

  • WSL2配置Pytorch+cuda2022-06-21 16:00:21

    目录在Win11中要干的事儿在WSL中要干的事儿安装Pytorch要干的事儿 笔记本型号:机械革命无界16pro 笔记本硬件:cpu——i712700H;gpu——RTX2050(显存4g,cuda数量2048) 软件环境:Win11,WSL2-Ubuntu20.04 在Win11中要干的事儿 更新一下系统,以免版本较老,微软不支持WSL调用gpu,在设置-->w

  • 记录自己NVIDIA GeForce MX250迷之安装cuda+pytorch成功了2022-06-21 00:00:38

    电脑是ubuntu20.4 Pop!_OS 20.04 LTS MX250显卡并没有列在CUDA支持的GPU里 希望文中链接的别人的博客不会消失掉。 安装了英伟达的驱动 参考了这一篇:Ubuntu 安装Nvidia显卡驱动,跟着这篇博客 ①进入bios,禁用自己的secure boot ② ubuntu-drivers devices # 查看显卡设备和显卡驱动

  • model.to(device)依然说权重不是cuda类型的2022-06-16 21:02:47

    问题说明:即使在train表明了model.to(device),但仍然会报错 input是torch.cuda.tensor.float,但weight 是torch.tensor.float即网络的权重不是cuda类型 解决:发现在model中的forward中,也定义了一个卷积核,其余卷积核皆是在__init__中定义,个人就想着对此卷积核.to(device) 如上图所示

专注分享技术,共同学习,共同进步。侵权联系[[email protected]]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有