目标检测yolov4,目标检测 yolov3
文章发布已转个人主页:wangcong.net
更新(更新!):C测试版本项目地址:https://github。com/cong/yolov 5 _深度排序_ tensorrt _ CPP
介绍项目通过YOLOv5和DeepSORT来实现了目标检测、跟踪算法,其中基于TensorRTX实现了模型从PyTorch到TensorRT转换,进一步将代码部署NVIDIA Jetson Xavier NX中。
项目在NVIDIA Jetson Xavier NX和X86 平台都可以正常运行。
项目地址:https://github。com/cong/yolov 5 _深度排序_ tensorrt
环境依赖X86架构:Ubuntu20.04或18.04采用CUDA 10.0和cud nn 7。6 .5十排序7。0 .0 .1 pytorch 1。7 .1 _ Cu 11.0、火炬视觉0.8.2 cu110、火炬音响0。7 .2 pencv-Python 4.2 pycuda 2021.1 NVIDIA嵌入式系统:Ubuntu18.04采用CUDA 10.2和cud nn 8。0 .0十进制排序7.1测试速度采用RTX 2080Ti的X86架构:
网络无张量twith张量tyolov 514 ms/71 fps/1239 M10 ms/100 fps/2801 myolov 5深度排序23 ms/43 fps/1276 M16 ms/62 fps/2842 NVIDIA Jetson Xavier NX:
不带TensorRTWith TensorRTYOLOV5 \ 43ms毫秒毫秒/23 fps/1397毫秒5深度排序\ 163毫秒/6 fps/3241深度排序的网络的速度取决于画面中目标的数目,上述数据是在单目标的情况下进行统计的。
推理过程下载项目
饭桶克隆https://github.com/cong/yolov5_deepsort_tensorrt.git执行
python demo.py
模型转换转换PyTorch yolov5模型到滕索特发动机。温馨提示:本项目使用了的 YOLOv5 version 4.0,TensorRTX 需要严格使用 TensorRTX version yolov5-v4.0。
将***.元素铂的符号文件转换成***.微软终端服务器文件。
git克隆-b版本5.0 https://github.com/ultralytics/yolov5.gitgit克隆https://github.com/wang-xinyu/tensorrtx.git#下载https://github。com/ultralytics/yolov 5/releases/download/v 5.0/yolov 5s。ptcp { tensorrtx }/yolov 5/gen _ wts。py { ultralytics }/yolov 5 CD { ultralytics }/yolov 5 python gen _ wts。py yolov 5s。pt #将生成一个文件yolov5s.wts .编译并生成***.发动机文件。
cd {tensorrtx}/yolov5/#更新约罗莱耶中的类别编号(如果您的模型是在自定义datasetmkdir构建CD buildcp { ultralytics }/yolov 5/yolov 5s。wts { tensorrtx }/yolov 5/build cmake上定型的).使#序列化模型计划文件udo ./yolov5 -s [.wts] [.发动机] [s/m/l/x/s6/m6/l6/x6或c/c6 gd gw]#反序列化并运行推理,将处理[图像文件夹]中的图像yolov5 -d [.引擎][图像文件夹]#例如yolov5ssudo ./约洛夫5s-s约洛夫5s。wts yolov 5s。发动机转速./yolov5 -d yolov5s.engine./样品#例如yolov5.yamlsudo中深度倍数=0.17,宽度倍数=0.25的自定义模型/yolo V5-s yolo V5 _自定义。wts yolo V5。发动机c 0.17 0.25 sudo ./yolov5 -d yolov5.engine./样品3。当生成_dtdsl.jpg和_bus.jpg两张图片后,表示可以运行成功。
自定义训练好自己的模型。模型转换到发动机格式(TensorRTX的版本必须与YOLOV5的版本相同
版本)。
替换掉项目中***.发动机和libmyplugins.so .下一步计划对深度排序模块进行加速。
其他厚着脸求开源代码库之星!要了解更多信息,您可以访问博客。
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。