ICode9

精准搜索请尝试: 精确搜索
  • 五月总结&六月计划2022-06-08 00:00:47

    五月总结 1. 主要任务 onnxruntime推理库学习 目标: API接口学习+log模块学习+总结 Deadline: 2022.5.20 进展: API接口看了个大概,没咋看明白,log模块没看。没有总结。 总结: 总结啥啊 反思: 这块内容确实是没好好完成,API那块也就下班后看了两三次,关键是里面的一些宏,确实有点复杂,本身对

  • MMDeploy安装笔记2022-05-01 20:31:19

    MMDeploy的onnxruntime教程 参考官方教程 A From-scratch Example Here is an example of how to deploy and inference Faster R-CNN model of MMDetection from scratch. step1: 创建虚拟环境并且安装MMDetection Create Virtual Environment and Install MMDetection. Please

  • ONNXRuntime学习笔记(三)2022-05-01 00:35:45

    接上一篇完成的pytorch模型训练结果,模型结构为ResNet18+fc,参数量约为11M,最终测试集Acc达到94.83%。接下来有分两个部分:导出onnx和使用onnxruntime推理。 一、pytorch导出onnx 直接放函数吧,这部分我是直接放在test.py里面的,直接从dataloader中拿到一个batch的数据走一遍推理即可。

  • ONNXRuntime学习笔记(一)2022-04-23 16:04:13

    一. DL模型落地步骤 一般情况下,一个DL任务落地的流程一般包含训练和部署两大部分,具体细分我认为可以分为以下几个步骤: 1. 明确任务目标:首先要明确我们最终要达到一个什么样的效果,假设我们的DL模型是一个函数y=f(x), 送入一张图片x后,模型需要吐出来一个什么样的y(基于此区分不同任

  • onnxruntime、cuda、cudnn、显卡驱动2022-03-30 18:31:06

    如果不想自己编译,版本要对应 onnxruntime——cuda——cudnn: CUDA - onnxruntime    cuda——显卡驱动: CUDA Compatibility :: NVIDIA Data Center GPU Driver Documentation  

  • 【推理引擎】在 VS Code 调试 ONNXRuntime 的测试单元2022-03-30 12:35:43

    背景:在学习如何往ONNXRuntime中添加新算子时,参考了官方测试代码:onnxruntime/test/shared_lib/test_inference.cc,代码内部使用GTest作为单元测试工具。为了清楚地学习运行过程,一步一步地调试是不可缺少的。 开始调试前需要以Debug方式编译代码库,同时别忘了开启测试开关: // cmake/

  • C++使用onnxruntime/opencv对onnx模型进行推理(附代码)2022-02-09 20:34:29

    1. c++使用onnxruntime进行推理 link code in git #include <opencv2/core.hpp> #include <opencv2/imgcodecs.hpp> #include <opencv2/opencv.hpp> #include <opencv2/highgui.hpp> #include <opencv2/core/core.hpp> #include <opencv2/imgproc/

  • onnx模型部署(一) ONNXRuntime2021-12-27 14:59:21

        通常我们在训练模型时可以使用很多不同的框架,比如有的同学喜欢用 Pytorch,有的同学喜欢使用 TensorFLow,也有的喜欢 MXNet,以及深度学习最开始流行的 Caffe等等,这样不同的训练框架就导致了产生不同的模型结果包,在模型进行部署推理时就需要不同的依赖库,而且同一个框架比

  • C++:onnxruntime调用FasterRCNN模型2021-12-16 21:58:17

    背景:         最近由于项目原因,需要用C++做一些目标检测的任务,就捣鼓一下YOLOv5,发现部署确实很方便,将YOLOv5模型转为onnx模型后,可以用OpenCV的dnn.readNetFromONNX读取该模型,接着就是输入预处理和输出结果解析的事情。        然而,当我将tf15训练得到的FasterRCNN模型并

  • 在C++上利用onnxruntime (CUDA)和 opencv 部署模型onnx2021-10-30 16:02:24

    概述 将得到的模型转化为onnx模型,加载到c++中运行,来完成模型的部署,下载并安装onnxruntime; CMakeLists.txt: cmake_minimum_required(VERSION 2.8) project(test) #使用clang++编译器 set(CMAKE_CXX_COMPILER clang++) set(CMAKE_BUILD_TYPE "Release") set(CMAKE_INCLUDE_C

  • c# 部署onnx模型2021-10-29 16:03:14

    1.环境 gpu3060+cuda11.1+vs2019 +Microsoft.ML.OnnxRuntime +SixLabors.ImageSharp  2.代码 using System; using System.Collections.Generic; using System.Linq; using Microsoft.ML.OnnxRuntime.Tensors; // DenseTensor using SixLabors.ImageSharp; // Image, Size

  • onnxruntime simple2021-09-30 14:34:09

    simple  github地址: GitHub - microsoft/onnxruntime-inference-examples: Examples for using ONNX Runtime for machine learning inferencing. onnxruntime cpu 问题1: libonnxruntime.so.1.10.0: cannot open shared object file: No such file or directory  需要添加l

  • onnxruntime 使用,删除、修改2021-09-07 14:02:35

    输出中间层数据(python) import onnx from onnx import helper model = onnx.load(“C:/Users/Desktop/fastscnn_0907_fix.onnx”) #名字命名为想要输出层对应的节点名,参数类型、维度,需要自己给出 info = helper.make_tensor_value_info(‘552’,onnx.TensorProto.INT64, [1,12

  • onnx多进程推理报错“can’t pickle onnxruntime.capi.onnxruntime_pybind11_state.SessionOptions objects“问题解决2021-08-25 16:33:53

    在使用onnx模型进行python的多进程推理的时候,遇到这个报错。搞明白报错原因之后,这里给出一个解决办法 使用python多进程进行ONNX和torch模型的的推理时候,习惯性把初始化构建推理引擎,初始化模型这个操作放在主进程,一般来讲都是这样做的,子进程只负责推理。在设置为multiprocess

  • 服务器配置相同服务性能不一样排查2021-07-22 20:05:42

    背景 查看响应时间日志,新增加的两台GPU机器服务器响应时间要比老的机器要快3倍qps 相似,机型一模一样,同一个服务和同样的模型 排查 htop 查看老机器开启了 swap, 新机器关闭了swap,于是将老机器的 swap 关闭,然而并没有效果 prometheus 比对两台机器的运行差异,除了老机器CPU使

专注分享技术,共同学习,共同进步。侵权联系[admin#icode9.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有