ICode9

精准搜索请尝试: 精确搜索
  • TensorRT - 解决INVALID_ARGUMENT: getPluginCreator could not find plugin ScatterND version 12021-09-19 09:58:58

    文章目录 1 问题出现2 解决方案2.1 解决方案12.2 解决方案22.2.1 官方文档沧海寻珠2.2.2 编译成功2.2.3 在C++ API中使用插件ScatterND 1 问题出现 最近在使用TensorRT 7.2.3.4中的自带的trtexec工具转换yolov3-spp的onnx模型为TensorRT模型文件时出现了找不到ScatterN

  • 【模型推理】教你 tensorrt 实现 mish 算子2021-09-15 17:06:48

      欢迎关注我的公众号 [极智视界],获取我的更多笔记分享   O_o   >_<   o_O   O_o   ~_~   o_O   本文介绍了使用 tensorrt 实现 mish 算子的方法。   相信做过目标检测的同学对 yolo 肯定比较熟悉了,yolov4是 2020 年初提出的,相继后来有了 yolov5 和其他一些变体,yolo

  • 【tensorrt】——动态shape杂谈/pool/resize2021-09-15 15:30:58

    tensorrt, dynamic shape 1. 前言 tensorrt 不知道在哪个版本开始就支持了dynamic shape,然后以前也没有试过,最近有这个想法,有一定时间就测试了一下。整个过程有助于对tensorrt模型转换,tensorrt引擎推理有更深一步的了解和认识。 2. 不支持的op 这里只是对不支持的op进行梳

  • ONNX、NCNN、OpenVINO、 TensorRT了解与简介2021-09-14 11:31:10

    https://oldpan.me/archives/talk-about-onnx Open Neural Network Exchange (ONNX)是开放生态系统的第一步,它使人工智能开发人员可以在项目的发展过程中选择合适的工具;ONNX为AI models提供了一种开源格式。它定义了一个可以扩展的计算图模型,同时也定义了内置操作符和标准数据类

  • 【tensorrt之dynamic shapes】2021-09-13 14:30:59

    1.  背景 Dynamic shapes指的是我们可以在runtime(推理)阶段来指定some或者all输入数据的维度,同时,提供C++和Python两种接口。一般需要指定为dynamic的是batch_size这一个维度,使得我们可以根据自己实际情况动态设置batch,而不需要每次都重新生成engine文件。 2. 总体流程 如何生成

  • Ubuntu18.04 安装cuda-10.2 cudnn7.6.5.32 tensorrt7.0.0.112021-09-11 10:04:09

    一、安装cuda-10.2 下载网址 CUDA Toolkit 10.2 download 执行: wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1804/x86_64/cuda-ubuntu1804.pin sudo mv cuda-ubuntu1804.pin /etc/apt/preferences.d/cuda-repository-pin-600 # 切换到cuda-repo-u

  • 搭建使用TensorRT加速的centerpoint模型环境2021-09-06 20:00:22

    github地址: 本文安装的环境是RTX3090+CUDA11.1+CUDNN8.0.5+Pytorch1.8.0+PYTHON3.7.0 1、基础安装 # basic python libraries conda create --name centerpoint python=3.7 conda activate centerpoint conda install pytorch==1.8.0 torchvision==0.9.0 torchaudio==0.8.0 c

  • tensorRT安装及加速YOLOv4(tiny)2021-09-05 18:06:17

    环境 cuda 10.1 cudnn 764 tensorRT安装 本文采用tkDNN的方法,根据YOLOv4 作者AlexeyAB推荐,可以支持(tiny) YOLO v1~YOLO v4的加速编译。其中,tkDNN-TensorRT 可以加速YOLOv4到 2倍(batch=1),3-4 倍(batch=4)。本文以tiny YOLOv4模型在TX2上测试,batch=1时大概提速50%左右。 tensorrt

  • YOLOX 模型转换报错 [TensorRT] ERROR: runtime.cpp (25) - Cuda Error in allocate: 2 (out of memory)2021-08-25 09:34:51

    YOLOX 模型转换报错 [TensorRT] ERROR: runtime.cpp (25) - Cuda Error in allocate: 2 (out of memory) 配置: ubuntu 18.04 pytroch 1.9.0 cuda10.0 cudnn 7.5.0 TensorRT 5.1.5 torch2trt 0.3.0 修改trt.py下max_workspace_size的大小

  • TensorRT int8 量化部署 yolov5s 5.0 模型2021-08-09 18:00:45

    TensorRT int8 量化部署 yolov5s 5.0 模型 一.yolov5简介 如果说在目标检测领域落地最广的算法,yolo系列当之无愧,从yolov1到现在的"yolov5",虽然yolov5这个名字饱受争议,但是阻止不了算法部署工程师对他的喜爱,因为他确实又快又好,从kaggle全球小麦检测竞赛霸榜,到star数短短不到一年突

  • TensorRT用自带trtexec实现onnx转engine的用法说明2021-08-01 23:02:36

    TensorRT自带的trtexec在bin目录下,是一个可执行文件。 运行./trtexec -h 其中给出了 model options、build options、 inference options和system options等。 上次我们使用TensorRT的pyhton API进行序列化模型和前向推理,这次介绍使用trtexec转模型。 1.从固定尺寸的onnx转

  • TensorRT教程18:使用DLA(深学习加速器)2021-07-25 18:04:41

    使用DLA(深学习加速器) https://github.com/NVIDIA/TensorRT/tree/master/samples/opensource/sampleMNIST 示例:带有 DLA 的 sampleMNIST 示例首先创建构建器: auto builder = SampleUniquePtr<nvinfer1::IBuilder>(nvinfer1::createInferBuilder(gLogger)); if (!builder) retu

  • TensorRT教程2021-07-11 15:56:05

    本教程不适用于CUDA新手 前言: TensorRT简单介绍 现在TRT出了dynamic shape,重新应用与语音领域,成功一半。(目前在腾讯) 闭源部分就是官方提供的库,是TRT的核心部分; 开源部分在github上,包含Parser(caffe, onnx)、sample和一些plugin。 一、 如何选择TensorRT版本 建议使用TensorRT6.0或

  • TensorRT+CUDA加速优化版CenterNet旋转目标以及水平目标框的检测2021-07-11 15:55:51

    前言 由于工作项目所需,一直用centerNet做旋转目标检测,在实际产品或者工业应用上落地此检测算法,那么在足够的算力下, 更好优选的方式还是需要c/c++来部署实现。 那么CenterNet也带来一个问题,那就是部署不太容易,主要是两个方面: 主流实现大多不好支持onnx导出; 后处理与传统的检测算

  • AI视频行为分析系统项目复盘——技术篇3:tensorRT技术梳理2021-06-30 17:01:31

    0 背景 见《AI视频行为分析系统项目复盘——技术篇1》 1 tensorRT 介绍 NVIDIA®TensorRT™是一个深度学习平台,用于模型推理加速(仅支持NVIDIA自家GPU,CPU加速一般使用OpenVINO)。 1.1 tensorRT 诞生意义 深度学习计算量相对普通程序还是挺大的,目前CV落地还不是很普及其中一个点就

  • 简单理解nvidia tensorRT模型量化原理2021-06-29 11:32:28

    参考资料: 某人的量化原理笔记 https://blog.csdn.net/sinat_31425585/article/details/101607785 某人对int8比较详细的介绍 https://zhuanlan.zhihu.com/p/58182172 某人对ncnn的量化原理和源码理解(ncnn量化是基于tensorRT改进的) https://zhuanlan.zhihu.com/p/72375164  

  • TensorRT教程3:使用trtexec工具转engine2021-06-27 18:34:30

    使用trtexec工具转engine 目前官方的转换工具 ONNX-TensorRT https://github.com/onnx/onnx-tensorrt trtexec的用法说明参考 https://blog.csdn.net/qq_29007291/article/details/116135737 trtexec有两个主要用途: 测试网络性能 - 如果您将模型保存为 UFF 文件、ONNX 文件,或

  • tensorrt环境探索2021-06-16 16:58:04

    tensorrt环境记录 版本cuda versiondrive versionGPU型号显存大小docker镜像主要版本运行状态分析0.111.2450.51.06tesla T415109MBnnvcr.io/nvidia/pytorch:21.02-py3torch=1.8.0 tensorrt=7.2.2.3 onnx=1.7.0不稳定CUDA版本与显卡驱动不兼容0.211.2450.51.06tesla T415109M

  • PyTorch模型转TensorRT2021-06-15 11:34:29

    文章目录 转换步骤概览环境参数PyTorch转ONNXONNX转TensorRT 转换步骤概览 准备好模型定义文件(.py文件)准备好训练完成的权重文件(.pth或.pth.tar)安装onnx和onnxruntime将训练好的模型转换为.onnx格式安装tensorRT 环境参数 ubuntu-18.04 PyTorch-1.8.1 onnx-1.9.0 onnxrun

  • tensorrt windows下简易说明2021-06-12 17:58:50

    文章目录 前言一、使用流程 前言 本文针对王鑫宇大神在github上的项目进行简单windows下的简单说明 项目地址: https://github.com/wang-xinyu/tensorrtx 一、使用流程 1.创建一个控制台程序。 最好是选择release版本+x64这个组合。release是个人习惯,以前被libtorch伤过

  • 深度学习模型压缩2021-06-02 12:02:03

      深度神经网络在人工智能的应用中,包括语音识别、计算机视觉、自然语言处理等各方面,在取得巨大成功的同时,这些深度神经网络需要巨大的计算开销和内存开销,严重阻碍了资源受限下的使用。本章总结了模型压缩、加速原理和方法,以及在移动端如何部署。   模型压缩是对已经训练好的深

  • Nvidia JetSON AGX Xavier查看版本常用命令2021-05-21 19:03:24

    概述 借助 NVIDIA Jetson AGX Xavier 开发者套件,您可以轻松创建和部署面向制造、交付、零售、智慧城市等领域的端到端 AI 机器人应用程序。该套件由 NVIDIA JetPack 和 DeepStream SDK,以及 CUDA®、cuDNN 和 TensorRT 软件库提供支持,可为您提供立即入门所需的所有工具 使用Nvidia S

  • jetson-nano使用tensorrt部署yolov52021-05-21 17:02:30

    项目前景 近期碰到很多项目,都是低硬件成本,在英伟达平台部署。英伟达平台硬件平常见到算力从小到大依次为 jetson-Nano、jetson-tk1、jetson-TX、jetson-xavier,加个从1000到10000不等,正好小编我全部都入手了一套,而且英伟达有个很好的量化的工具tensorrt. 小编QQ1039463596

  • YOLOv5算什么,这个才是最强!---PP-YOLOv22021-05-12 11:32:15

    YOLOv5算什么,这个才是最强! AI派 昨天 这个目标检测神器简直香炸了!它不仅连续登录Github全球趋势榜,拥有的全球尖端算法论文也接连登录全球技术趋势榜PaperWithCode。     这个神器就是刚刚全面升级的PaddleDetection2.0!它全面兼顾高性能算法、便捷开发、高效训练及完备部署,不

  • TensorRT入门介绍2021-04-25 23:30:22

      什么是TensorRT TensorRT是由Nvidia推出的C++语言开发的高性能神经网络推理库,是一个用于生产部署的优化器和运行时引擎。其高性能计算能力依赖于Nvidia的图形处理单元。它专注于推理任务,与常用的神经网络学习框架形成互补,包括TensorFlow、Caffe、PyTorch、MXNet等。可以直接

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有