YOLOX目标检测实战:LabVIEW+YOLOX ONNX模型实现推理检测(含源码)

743 阅读5分钟

我正在参加「掘金·启航计划」

前言

好长一段时间没更博了,没更新博客的这段时间博主都有在努力产出,前段时间好多朋友私信问我说自己的yolov5模型是比较老的版本,使用LabVIEW推理的时候会报错。为各位朋友新老版本都能兼容,博主这段时间做了一个LabVIEW YOLOv5的插件,里面包含了大部分的新旧版本,老版本的朋友们也可以愉快的使用LabVIEW来实现推理了。等后面整理好了分享给大家。今天我们先一起来看一下如何使用LabVIEW实现yolox的目标检测。


一、什么是YOLOX

LabVIEW实现YOLOX目标检测

在这里插入图片描述 在这里插入图片描述 YOLOX是旷视科技开源的高性能实时目标检测网络,旷视的研究者将解耦头、数据增强、无锚点以及标签分类等目标检测领域的优秀进展与 YOLO 进行了巧妙的集成组合,提出了 YOLOX,不仅实现了超越 YOLOv3、YOLOv4 和 YOLOv5 的 AP,而且取得了极具竞争力的推理速度。如下图:

在这里插入图片描述 YOLOX提供了支持 ONNX、TensorRT、NCNN 和 Openvino 的部署版本。今天我们主要针对YOLOX 的ONNX在LabVIEW中实现部署推理。


二、环境搭建

1、部署本项目时所用环境:

  • 操作系统:Windows10
  • python:3.6及以上
  • LabVIEW:2018及以上 64位版本
  • AI视觉工具包:techforce_lib_opencv_cpu-1.0.0.73.vip
  • onnx工具包:virobotics_lib_onnx_cuda_tensorrt-1.0.0.12.vip【不使用cuda或者tensorrt加速的话也可以使用:virobotics_lib_onnx_cpu-1.0.0.13.vip】

2、LabVIEW工具包下载及安装:


三、模型的获取与转化【推荐方式一】

下面我们来介绍两种模型获取的方式(以yoloxs为例,想要获取其他模型的方式也一样,只需要修改名字即可)

1、方式一:直接在官网下载yolox的onnx模型

下载具体地址如下:github.com/Megvii-Base… 在这里插入图片描述 下载对应版本模型的weights,点击github即可下载onnx模型。

2、方式二:将标准模型pth转化为onnx(较为复杂)

1、安装YOLOX 在github.com/Megvii-Base…中下载yolox源码并解压,在YOLOX-main文件夹中打开cmd,输入以下指令安装需要的库及yolox:

pip3 install -U pip && pip3 install -r requirements.txt
python3 setup.py develop

2、安装pycocotools

pip install pycocotools

!!!注:若安装pycocotools时遇到ERROR: Could not build wheels for pycocotools ……,则使用以下指令来安装:

pip install pycocotools-windows

3、从基准表下载标准预训练模型:github.com/Megvii-Base… 在这里插入图片描述 将yolox_s.pth模型放置到如下路径: 在这里插入图片描述 4、将标准模型pth转化为onnx

运行以下指令实现模型的转换

python3 tools/export_onnx.py --output-name yolox_s.onnx -n yolox-s -c yolox_s.pth

也可使用如下指令转化自己的模型:

#通过 -f 转换标准 YOLOX 模型。使用 -f 时,上述命令等价于:
python3 tools/export_onnx.py --output-name yolox_s.onnx -f exps/default/yolox_s.py -c yolox_s.pth
# 要转换您的自定义模型,请使用 -f:
python3 tools/export_onnx.py --output-name your_yolox.onnx -f exps/your_dir/your_yolox.py -c your_yolox.pth

输出如下,得到yolox_s.onnx 在这里插入图片描述

3、获取onnx模型总结

通过对比我们会发现,先下载标准模型,再转换为onnx模型比较麻烦,需要配置很多环境,如果只是想要实现YOLOX的推理,则可以使用方式一,直接在官网下载对应的模型即可。但是如果想要转换自己训练好的onnx模型,则可采用第二种方式,将训练好的pth转化为onnx。


四、LabVIEW实现YOLOX ONNX推理检测

将我们的onnx模型放置到model文件夹中,修改程序中加载的模型,本项目中已经下载好了yolox_s.onnx和yolox_m.onnx两种模型,如需其他模型,读者也可自行放置到model文件夹下,实现模型的加载。 在这里插入图片描述

1、LabVIEW调用yolox onnx模型实现目标检测yolox.vi

本例中使用LabvVIEW ONNX工具包中的Create_Session.vi载入onnx模型,可选择使用cpu,cuda,tensorRT进行推理加速。【若安装的是onnx cpu版,则只可使用cpu推理加速】

(1)查看模型

我们可以使用netron 查看yolov5m.onnx的网络结构,浏览器中输入链接:netron.app/,点击Open Model,打开相应的网络模型文件即可。 在这里插入图片描述 如下图所示是转换之后的yolox_s.onnx的属性: 在这里插入图片描述 可以看到图片输入大小为640640 输出为18400*85

(2)LabVIEW调用YOLOX源码

如下图所示,加载模型及图片实现目标检测 在这里插入图片描述

(3)LabVIEW调用YOLOX实现目标检测结果

本程序运行时,加载模型为:yolox_s.onnx,实际运行时需要修改图片路径为实际路径,否则会报错在这里插入图片描述 运行结果如下: 在这里插入图片描述 大家也可以检测其他图片来测试检测效果。

2、LabVIEW调用yolox onnx模型实现实时目标检测yolovx_camera.vi

实时检测过程,我们可以选择使用CUDA或者tensorRT实现推理加速,我们发现相同环境下,yolox的实时检测速度和精度都比其他的yolo模型要更好。

(1)LabVIEW调用YOLOX实时目标检测源码

在这里插入图片描述

(2)LabVIEW调用YOLOX实现实时目标检测结果

在这里插入图片描述 可以看到使用CUDA进行推理加速,速度还是很快的。大家也可以使用tensorRT进行推理加速。


五、源码及模型下载

链接:pan.baidu.com/s/1FMRH1F3D…

总结

以上就是今天要给大家分享的内容。大家可根据链接下载相关源码与模型。

如果有问题可以在评论区里讨论,提问前请先点赞支持一下博主哦,如您想要探讨更多关于LabVIEW与人工智能技术,欢迎加入我们的技术交流群:705637299。

如果文章对你有帮助,欢迎✌关注、👍点赞、✌收藏、👍订阅专栏