ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

树莓派上体验用ncnn推理yolov5-lite

2022-01-26 11:31:46  阅读:529  来源: 互联网

标签:bin 树莓 onnx yolov5 param ncnn lite


中间细节都一样,均可参考:https://raychiu.blog.csdn.net/article/details/122534656

一到四步这些模型转化生成都在服务器上操作即可,比较快,最后的param和bin发送到树莓派使用即可。

一、下载代码和模型并转onnx

#模型在百度云盘密码pogg,模型名字是v5lite-s.pt自行更正为yolov5-lite.pt
https://pan.baidu.com/share/init?surl=j0n0K1kqfv1Ouwa2QSnzCQ
#下载代码并转onnx
git clone https://github.com/ppogg/YOLOv5-Lite.git
python models/export.py --weights weights/yolov5-lite.pt --img 640 --batch 1
python -m onnxsim weights/yolov5-lite.onnx weights/yolov5-lite-sim.onnx

二、配置ncnn环境并生成param和bin

~/data/packages/ncnn/build/tools/onnx/onnx2ncnn ./yolov5-lite-sim.onnx yolov5-lite.param yolov5-lite.bin
~/data/packages/ncnn/build/tools/ncnnoptimize yolov5-lite.param yolov5-lite.bin yolov5-lite-opt.param yolov5-lite-opt.bin 65536

三、改param文件设置动态尺寸推理

四、匹配ncnn中yolov5.cpp的输出

param中的:

 

yolov5.cpp中的:

 

 

 五、树莓派上重新编译ncnn并拿来其他服务器上生成的param和bin文件推理

未量化的模型执行较慢,大概0.5fps吧

 

标签:bin,树莓,onnx,yolov5,param,ncnn,lite
来源: https://www.cnblogs.com/raychiu/p/15845912.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有