ICode9

精准搜索请尝试: 精确搜索
  • tensorflow如何使用gpu2022-06-28 23:35:37

    https://blog.csdn.net/To_be_little/article/details/124438800   目录1、查看GPU的数量2、设置GPU加速3、单GPU模拟多GPU环境1、查看GPU的数量import tensorflow as tf# 查看gpu和cpu的数量gpus = tf.config.experimental.list_physical_devices(device_type='GPU')cpus = tf.c

  • 跑Tensorflow模型设置用GPU的一些总结2022-06-28 23:35:12

    https://blog.csdn.net/qq_42250789/article/details/107070520   目录 一、查看是否用了GPU跑代码 二、用GPU跑代码,观察GPU情况 三、设置用GPU跑代码的方法 四、查看/安装cuda、cudnn版本 五、代码一些问题 错误1:No module named 'tensorflow.contrib' 错误2:AttributeError: mod

  • CUDA ---- Hello World From GPU2022-06-27 17:00:51

    CUDA ---- Hello World From GPU   本篇博文仅实现hello world,先看到效果,具体细节将在后续博文解释。 准备 如果你是第一次使用CUDA,在Linux下可以使用下面的命令来检查CUDA编译器是否安装正确: $ which nvcc 一般,该指令输出为: /usr/local/cuda/bin/nvcc 另外,你可能还需要检查

  • 阿里云刘珅孜:云游戏带来的启发——端上创新2022-06-27 15:31:31

    5月11日,在“2022阿里云视觉计算私享会”上,阿里云智能互联网行业事业部的刘珅孜为大家带来了题为《云游戏带来的启发:端上创新》的主题分享。以下内容根据他的演讲整理而成。   云游戏与元宇宙的关系   首先还是用简短的语言帮大家理清云游戏与元宇宙的关系。其实娱乐是生活的一

  • Hands-On GPU Programming with Python and CUDA 电子书 pdf2022-06-27 13:00:51

    中文版好像叫《GPU编程实战(基于Python和CUDA)》   关注公众号:红宸笑。 回复:电子书 即可  

  • KTL 一个支持C++14编辑公式的K线技术工具平台 - 第七版,体验GPGPU。2022-06-27 11:36:12

    K,K线,Candle蜡烛图。 T,技术分析,工具平台 L,公式Language语言使用c++14,Lite小巧简易。 项目仓库:https://github.com/bbqz007/KTL 国内仓库:https://gitee.com/bbqz007/KTL  CoreAnimation for Windows: https://github.com/bbqz007/xw zqt5 一个超简单的Qt5窗口语法: https://gith

  • 剖析虚幻渲染体系(16)- 图形驱动的秘密2022-06-25 19:32:11

    目录16.1 本篇概述16.1.1 本篇内容16.1.2 设备驱动概述16.1.3 图形驱动概述16.2 图形驱动基础16.2.1 硬件概览16.2.2 总线类型16.2.3 显存架构16.2.4 虚拟和物理内存16.2.5 PFIFO16.2.6 图形卡剖析16.2.7 图形卡编程16.2.8 图形硬件案例16.3 操作系统图形驱动16.3.1 Windows图形驱

  • 音视频与CPU架构2022-06-25 06:33:38

    音视频与CPU架构 超视频时代音视频架构建设与演进 如果说,在以音视频为载体传输信息、进行交互的技术领域,始终飘着一朵“乌云”,那么这朵“乌云”的名字,很可能既不是低延时,也不是高可靠,而是不断变化的应用场景。 从 Web 2.0 到移动端基础设施全面建成,完成了文字信息的全面数字化;而从

  • 查看GPU占用率以及指定GPU加速程序2022-06-24 15:04:22

    查看GPU占用率以及指定GPU加速程序 GPU占用率查看: 方法一:任务管理器 如图,GPU0和GPU1的占用率如下显示。       方法二:GPU-Z软件        下面两个GPU,上面是GPU0,下面是GPU1 sensors会话框里的GPU Load就是占用率 大家可以查看GPU0和GPU1的使用与否和使用率   方法三:终端

  • AI芯片杂谈-2022年2022-06-23 06:02:30

    AI芯片杂谈-2022年 四大类人工智能芯片(GPU、ASIC、FGPA、类脑芯片)及系统级智能芯片在国内的发展进度层次不齐。用于云端的训练、推断等大算力通用 芯片发展较为落后;适用于更多垂直行业的终端应用芯片如自动驾驶、智能安防、机器人等专用芯片发展较快。超过80%中国人工智能产业链企

  • Pytorch中多GPU训练指南2022-06-16 10:02:44

    前言 在数据越来越多的时代,随着模型规模参数的增多,以及数据量的不断提升,使用多GPU去训练是不可避免的事情。Pytorch在0.4.0及以后的版本中已经提供了多GPU训练的方式,本文简单讲解下使用Pytorch多GPU训练的方式以及一些注意的地方。 这里我们谈论的是单主机多GPUs训练,与分布式训练

  • generatorswithstylegan2人脸生成踩坑记录2022-06-14 13:02:10

    这个主要是cmake编译问题, 在windows下面在安装VS2017/VS2019时一定要将‘使用C++的桌面开发’选上,然后按照说明替换对应版本号 在linux下面需要考虑gcc的版本兼容问题, 好像g++8以上的不能编译,需要g++7及以下。 我把dnnlib/tflib/custom_ops.py64行改成了cmd = 'nvcc --std=c++1

  • 深度学习环境配置(pytorch和tensorflow对应的gpu版本环境的兼容):cuda10.1 + cudnn7.6.5 + tensorflow=2.3.0,tensorflow-gpu=2.2022-06-11 00:33:17

    配置结果: Anaconda2019[python3.7.3]+cuda10.1 + cudnn7.6.5 + tensorflow=2.3.0,tensorflow-gpu=2.3.0(tf23虚拟环境,python3.7.3)+pytorch1.81(cu101) + torch-geometric(PYG181虚拟环境,python3.7.13,两个环境及两个环境的python版本不同都是为了防止两个深度学习库对numpy等库的

  • 剖析虚幻渲染体系(15)- XR专题2022-06-09 07:31:51

    目录15.1 本篇概述15.1.1 本篇内容15.1.2 XR概念15.1.2.1 VR15.1.2.2 AR15.1.2.3 MR15.1.2.4 XR15.1.3 XR综述15.1.4 XR生态15.1.5 XR应用15.2 XR技术15.2.1 XR技术综述15.2.1.1 软件架构15.2.1.2 Quest 2开发15.2.1.3 OpenXR15.2.2 光学和成像15.2.3 延迟和滞后15.2.3.1 Predicti

  • 2 Colab之GPU2022-06-08 21:37:34

    0 新项目 谷歌driver里面新建Colab文件,如下图所示: 如何设置GPU? 选择diam执行程序->更改运行时类型为GPU 1.验证GPU 查看是否为GPU设备 import tensorflow as tf tf.test.gpu_device_name() # 查看设备名字 查看显卡情况 !/opt/bin/nvidia-smi # 查看显卡情况 输出: 至此为止

  • TensorFlow安装、使用与加速的心路历程2022-06-08 01:00:38

    记得最早接触的编程语言是大一那会的C语言,明明是为了单片机打基础,却没想到误打误撞的点亮了用python混毕设的技能树。当然,这一切都怪我叔在我大二放暑假那会怂恿我用树莓pi做毕设,当初看着那块小小的卡片机能当电脑用就觉得很神奇,后面想想似乎当办公电脑来用的话跟手机区别不大,外接

  • AMD透露下一代GPU架构代号:Polaris2022-06-04 20:34:13

    AMD透露代号为Polaris的下一代GPU架构,Polaris是 Graphics Core Next (GCN)架构的第四代,目前AMD显卡如 Radeon R9 285和R9 Fury 使用的是 GCN 1.2架构。新架构显卡最引入瞩目之处是使用14纳米FinFET工艺,AMD声称基于 Polaris的显卡在中等画质60 FPS运行《星战前线》,功耗仅为85W,相比

  • CUDA开发流程解析2022-06-03 07:31:07

    CUDA开发流程解析 CUDA编程 CUDA是Nvidia公司推出的使用GPU进行通用计算的并行计算平台和编程模型。在进行CUDA编程之前,我们需要先了解一些软件栈和编译链的基础知识。 一、CUDA软件栈 CUDA软件栈分为以下四层,最下面是内核态的GPU驱动程序,其次是用户态的驱动程序,上面是CUDA运行时,

  • Branch in GPU2022-05-31 11:03:55

    What is it about shaders that even potentially makes if statements performance problems? It has to do with how shaders get executed and where GPUs get their massive computing performance from. Separate shader invocations are usually executed in parallel,

  • 并行使用GPU环境操作2022-05-27 22:32:20

    并行使用GPU环境操作    1.登录节点没有GPU资源,计算节点才有,您需要申请一个计算节点 比如 salloc   --gpus=1;   2.然后squeue查询作业    最后一行会有一个 g000xx的节点名      3.ssh  g00xx就到了这个计算节点后再执行这些操作      4.退出输入 exit 退出节点,  

  • 乘风破浪,遇见未来元宇宙(Metaverse)之微软和Meta战略合作,选择Azure作为战略云供应商,帮助加速人工智能的研究和开发2022-05-26 22:01:55

    2022年5月25日,Meta公司选择Azure作为战略云供应商,推进人工智能创新,深化PyTorch合作 https://azure.microsoft.com/en-us/blog/meta-selects-azure-as-strategic-cloud-provider-to-advance-ai-innovation-and-deepen-pytorch-collaboration/ 微软致力于负责任地推进人工智能的

  • torch.device()基础用法2022-05-20 22:05:42

    用途:用于指定将数据或者模型放在GPU/CPU #1.通常用法 device = torch.device("cuda" if torch.cuda.is_available() else "cpu") data = data.to(device) model = model.to(device) ''' 1.先创建device对象 2.to函数指定数据或者模型放到哪里 ''' #2.将

  • 从DPU开始到RDMA到CUDA2022-05-20 07:32:21

    从DPU开始到RDMA到CUDA DPU是Data Processing Unit的简称,它是最新发展起来的专用处理器的一个大类,是继CPU、GPU之后,数据中心场景中的第三颗重要的算力芯片,为高带宽、低延迟、数据密集的计算场景提供计算引擎。 DPU将作为CPU的卸载引擎,释放CPU的算力到上层应用。以网络协议处理为

  • DirectX11--CPU与GPU计时器2022-05-20 02:32:05

    前言 GAMES104的王希说过: 游戏引擎的世界里,它的核心是靠Tick()函数把这个世界驱动起来。 本来单是一个CPU的计时器是不至于为其写一篇博客的,但把GPU计时器功能加上后就不一样了。在这一篇中,我们将讲述如何使用CPU计时器获取帧间隔,以及使用GPU计时器获取GPU中执行一系列指令的间

  • 拿到GPU服务器后要干什么2022-05-19 16:03:43

    0. 上架服务器 上架服务器,配置IPMI。 1. 安装ubuntu server 登录IPMI管理ip,加载ubuntu-server的iso安装包为virtual media。重启选择安装介质。 安装系统,选装OpenSSH, docker等需要的软件。配置网络ipv4静态ip,掩码,网关等 https://ubuntu.com/tutorials/install-ubuntu-server 2.

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有