YOLOV4采用了什么激活函数(【YOLOv5】LabVIEW+OpenVINO让你的YOLOv5在CPU上飞起来)
前言
上一篇博客给大家介绍了使用opencv加载YOLOv5的onnx模型 ,但我们发现使用CPU进行推理检测确实有些慢 ,那难道在CPU上就不能愉快地进行物体识别了吗?当然可以啦 ,这不LabVIEW和OpenVINO就来了嘛!今天就和大家一起看一下如何在CPU上也能感受丝滑的实时物体识别 。
一 、OpenVINO是什么
OpenVINO是英特尔针对自家硬件平台开发的一套深度学习工具库 ,用于快速部署应用和解决方案 ,包含推断库 ,模型优化等等一系列与深度学习模型部署相关的功能 。
特点:
1 、在边缘启用基于CNN的深度学习推理
2 、支持通过英特尔®Movidius™VPU在英特尔®CPU ,英特尔®集成显卡 ,英特尔®神经计算棒2和英特尔®视觉加速器设计之间进行异构执行
3 、通过易于使用的计算机视觉功能库和预先优化的内核加快上市时间
4 、包括对计算机视觉标准(包括OpenCV *和OpenCL™)的优化调用
5 、通俗易懂点说想要在intel-cpu或者嵌入式上部署深度学习模型 ,可以考虑考虑openvino二 、LabVIEW视觉工具包下载与配置
1 、视觉工具包的下载安装
可在如下链接中下载OpenVINO版工具包:基于LabVIEW可使用opencv DNN模块调用的深度学习工具包
安装方式可参考:LabVIEW AI视觉工具包(非NI Vision)下载与安装教程中CPU用户的安装 。
2 、OpenVINO toolkit下载安装
下载地址:英特尔® Distribution of OpenVINO™ 工具套件
1)点击Dev Tools2)选择版本 ,选择如下版本 ,并DownLoad:
3)下载后 ,运行安装即可!
4)可以选择安装路径,具体安装可以参考官方文档:https://docs.openvino.ai/cn/latest/openvino_docs_install_guides_installing_openvino_windows.html三 、模型获取
openvino工作流程 ,和其他的部署工具都差不多 ,训练好模型,解析成openvino专用的.xml和.bin ,随后传入Inference Engine中进行推理 。这里和上一篇博客一样可以使用export.py导出openvino模型:python export.py --weights yolov5s.pt --include openvino
当然这里已经为大家转换好了模型 ,大家可以直接下载 ,下载链接:YOLOv5 OpenVINO IR模型
四 、LabVIEW+OpenVINO调用Yolov5进行实时物体识别
1 、实现过程
dnn模块调用IR模型(模型优化器) 设置计算后台与计算目标设备(推理引擎加速) 获取输出端的LayerName 图像预处理 推理 后处理 绘制检测出的对象2、程序源码
3 、识别结果
CPU模式下 ,使用openvino进行推理加速 ,实时检测推理用时仅95ms/frame ,是之前加载速度的三分之一
注意:
1.必须安装含openvino字眼的labview工具包 2. readNetFromModelOptimizer.vi中IR模型路径不可以包含中文附加说明:计算机环境
操作系统:Windows10
python:3.6及以上
LabVIEW:2018及以上 64位版本
视觉工具包:techforce_lib_opencv_cpu_openvino2021-1.0.0.61.vip
OpenVINO:2021.4.2总结
以上就是今天要给大家分享的内容 。
如需源码 ,请在评论区留下您的邮箱 。
如您想要探讨更多关于LabVIEW与人工智能技术 ,欢迎加入我们的技术交流群:705637299 。
创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!