Jetson Nano tensorrt部署YOLOX流程

简介: Jetson Nano tensorrt部署YOLOX流程

Jetson Nano tensorrt部署YOLOX流程


1. 起因


之前项目本来是cpu跑,后来硬件对于视频编解码来不及,于是整个项目换到GPU环境上重构.由于之前部署用的模型是yolov5效果很差并且yolox是易于新手部署的,于是用yolox重新训了一版模型,效果有很大提升.昨天部署到边缘盒子中需要在盒子里重新做模型转换因此有了这篇Blog,这篇Blog主要记录一下部署流程.


2. 开始


部署流程大致如下:


  1. 训练好模型,导出onnx
  2. onnx转tensorrt
  3. 改写前处理/后处理部分,以及输入输出,利用tensorrt推理
  4. 编译进行测试
  5. 整合项目


这篇Blog默认是已经有了onnx模型以后的流程,模型训练以及导出onnx在官方代码库中都有很好的实现,根据自己需要导出就行.其实yolox是非常易于部署的,官方差不多已经把整套流程都写好了,这也是为什么拿它当例子的原因,应该可以算得上部署的“hello world”了吧


2.1 onnx转tensorrt


将转出的onnx模型scp传到Nano中,Nano应该是默认配置好了tensorrt环境的,所以只需要找到trtexec就可以直接转换了

image.png


我的环境下直接去/usr/src/tensorrt/bin/下就有这个,然后运行转换命令

./trtexec --onnx=yolox.onnx --saveEngine=yolox.trt --fp16

这里我默认batchsize就是1,所以不用添加optShapes(min,max).另外workspace也是用默认值就好


2.2 C++部分


我们需要用c++结合opencv,tensorrt重写模型的前处理以及后处理,这部分官网给出了demo,我们只需要拷贝下来然后根据自己需要修改一下.


首先去下载代码github.com/Megvii-Base…


然后修改CMakeLists中的链接库路径,查看cudnn等可以试试下面命令

ls /usr/lib/aarch64-linux-gnu | grep dnn


image.png

看到了对应的一些链接库文件,说明我们只需要把link_directories设置为这个路径

最终修改后的CMakeLists.txt如下


image.png


接下来修改cpp中的一些设置


首先是输入和输出的名字,这些是导出onnx时绑定的,你得去看export onnx时设置的input和output,这个要对应上.比如我导出时input是images,output是output,所以这里修改INPUT_BLOB_NAME="images"


image.png

然后根据自己的模型预测结果修改预测类别数和名字


image.png


剩下的如果没有对yolox进行改进或者没有添加处理步骤,其他都都不需要改


2.3 编译并测试


万事俱备开始编译


cmake .
make -j8
复制代码


就可以看到yolox这个可执行文件,然后进行测试

./yolox ./yolox.trt -i ./imgs/1.png

下面是输入的图片以及输出的预测图片


image.png

可以看出我们需要的车型分类以及单轮双轮都检测出来了,然后测试没问题之后把这部分代码移植到项目中,并将nms和置信度设置添加到config文件中,最终实际推理时间也能达到准实时符合要求.


3. 总结


其实这些并不难,难点都在针对各种实际问题设计高效算法,这才是最需要思考的,部署这部分多玩几次自然就熟练了.

目录
相关文章
|
27天前
|
PyTorch 算法框架/工具
Jetson学习笔记(四):pth(torch模型文件)转trt(tensorrt引擎文件)实操
关于如何使用torch2trt工具将PyTorch模型转换为TensorRT引擎文件的实操指南。
35 1
Jetson学习笔记(四):pth(torch模型文件)转trt(tensorrt引擎文件)实操
|
27天前
Jetson学习笔记(二):TensorRT 查看模型的输入输出
这篇博客介绍了如何使用TensorRT查看模型的输入输出,并通过代码示例展示了如何获取和验证模型的输入输出信息。
81 5
|
27天前
|
并行计算 API C++
Nvidia TensorRT系列01-TensorRT的功能1
NVIDIA TensorRT是一个高性能深度学习推理优化器和运行时,支持C++和Python API。其编程模型分为构建阶段和运行时阶段,前者优化模型,后者执行推理。TensorRT支持多种数据类型和精度,包括FP32、FP16、INT8等,并提供插件机制以扩展支持的操作。
46 0
|
机器学习/深度学习 人工智能 计算机视觉
【YOLOv8】实战二:YOLOv8 OpenVINO2022版 windows部署实战
【YOLOv8】实战二:YOLOv8 OpenVINO2022版 windows部署实战
1182 0
【YOLOv8】实战二:YOLOv8 OpenVINO2022版 windows部署实战
|
机器学习/深度学习 并行计算 Ubuntu
【Jetson Xavier NX 开发板深度学习环境配置流程】
【Jetson Xavier NX 开发板深度学习环境配置流程】
888 0
【Jetson Xavier NX 开发板深度学习环境配置流程】
|
机器学习/深度学习 并行计算 PyTorch
【RTX 3060Ti 深度学习环境配置图文(安装Anaconda、VScode、CUDA、CUDNN、pytorch)】
【RTX 3060Ti 深度学习环境配置图文(安装Anaconda、VScode、CUDA、CUDNN、pytorch)】
396 0
【RTX 3060Ti 深度学习环境配置图文(安装Anaconda、VScode、CUDA、CUDNN、pytorch)】
|
机器学习/深度学习 并行计算 API
TensorRT安装
TensorRT安装
1087 0
|
机器学习/深度学习 TensorFlow 调度
YOLOV5 v6.1更新 | TensorRT+TPU+OpenVINO+TFJS+TFLite等平台一键导出和部署
YOLOV5 v6.1更新 | TensorRT+TPU+OpenVINO+TFJS+TFLite等平台一键导出和部署
243 0
|
机器学习/深度学习 并行计算 自动驾驶
【YOLOv5】手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,实现YOLOv5实时物体识别(含源码)
使用LabVIEW ONNX Runtime部署 TensorRT加速,实现YOLOv5实时物体识别
446 0
|
异构计算
【超快超轻YOLO】YOLO-Fastest从Darknet源码编译、测试再到训练完整图文教程!
【超快超轻YOLO】YOLO-Fastest从Darknet源码编译、测试再到训练完整图文教程!
452 0