网站项目策划书方案,wordpress输出友情链接,潍坊专业做薪酬绩效,快速建站套餐YOLOWeeds: A novel benchmark of YOLO object detectors for multi-class weed detection in cotton production systems 摘要1、介绍2、总结 摘要
过度依赖除草剂控制杂草#xff0c;加速了杂草的抗除草剂进化#xff0c;引起了对环境、食品安全和人类健康的日益关注。自动… YOLOWeeds: A novel benchmark of YOLO object detectors for multi-class weed detection in cotton production systems 摘要1、介绍2、总结 摘要
过度依赖除草剂控制杂草加速了杂草的抗除草剂进化引起了对环境、食品安全和人类健康的日益关注。自动化/机器人除草的机器视觉系统在实现综合的、可持续的除草管理方面得到了越来越多的关注。然而在非结构化的田间环境和杂草生物多样性显著的情况下开发可靠的杂草识别和检测系统仍然是一个严峻的挑战。解决这一挑战的一个很有前途的解决方案是开发适合于种植系统的大规模、带有注释的杂草图像数据集以及用于杂草检测的数据驱动AI(人工智能)模型。在各种深度学习架构中各种各样的YOLO (You Only Look Once)检测器非常适合于实时应用并且在通用目标检测方面非常流行。这项研究提供了一个新的数据集(CottoWeedDet12)其中包括对美国南部棉花生产至关重要的杂草。它包括12个杂草类的5648幅图像共9370个边界框注释收集了自然光条件下和棉花田不同杂草生长阶段的图像。所有的YOLO模型特别是YOLOv5n和YOLOv5s在杂草实时检测方面显示了巨大的潜力数据增强可以提高杂草检测的准确性。
1、介绍
影响杂草识别性能的主要因素有两个即用于模型训练的图像数据的大小和质量以及杂草识别算法。 大规模标注图像数据是保证计算机视觉算法性能的关键。在精准农业中缺乏大规模、高质量的标注数据集仍然是充分利用深度学习算法(Lu和Young, 2020)开发鲁棒机器视觉系统的关键瓶颈。对于杂草识别良好的数据集应该提供有关杂草物种、环境条件(如光照条件、土壤类型)和与生长阶段相关的形态或生理变化的充分表征。除了需要杂草识别领域的专业知识外准备这样的数据集是出了名的耗时和昂贵。 最近开展了一些研究开发用于杂草控制的图像数据集(Lu和Young, 2020)如DeepWeeds (Olsen等人2019)、早期作物杂草数据集(espejoo - garcia等人2020)、Hedge bindweed (Gao等人2020)、CottonWeedID15 (Chen等人2022)、Eden图书馆(Mylonas等人2019)、2022年)和杂草人工智能(https://weed-ai.sydney.edu.au/)。到目前为止据我们所知只有CottonWeedID15 (Chen et al. 2022)致力于识别棉花生产系统特有的杂草。 同时在杂草检测的图像处理/分析技术上已经做了大量的研究(Wang等人2019;Meyer和Neto, 2008年;Wu等人2021)。人们提出了各种强调植物绿色的颜色指数以增强对土壤背景杂草的描述和分割(Meyer和Neto, 2008;Woebbecke等人1995)。其中大多数算法虽然易于计算但对各种成像条件并不鲁棒特别是在处理可变自然场光条件下获得的图像时(Hamuda等2016;Bawden等人2017;陆等2022)。最近基于深度学习(DL)算法的数据驱动方法特别是卷积神经网络(CNNs)已被用于杂草检测(Hasan et al. 2021)。在大规模数据集的支持下训练有素的DL模型可以对生物变异和成像条件具有鲁棒性同时实现令人满意的分类或检测精度(Chen等人2022;Olsen等人2019年;Suh等人2018)。经过训练的DL模型可以部署在专用的计算硬件上(如NVIDIA Jetson AGX Xavier模块)并与机器人平台相结合实现实时杂草识别(Du等人2021;奥尔森等人2019)。 杂草识别的任务分为三个基本类别:1)将图像归类为作物/杂草2)在图像中检测或定位杂草3)将图像分割成语义杂草特征图分别对应计算机视觉中的三个基本问题即图像分类、目标检测和语义分割。DL方法最常用于训练杂草分类模型(Olsen等2019;埃斯佩霍-加西亚等人2020年;Chen et al. 2022;Dyr - mann等人2016;Suh等人2018)给定图像级别的标记数据集。然而生成的模型没有提供关于图像中特定杂草位置的信息因此对于提供精确的杂草控制来说是次优的。相比之下目标检测需要在图像中定位感兴趣的对象(Girshick et al. 2015)可以预测图像中杂草的位置更有利于高精度的杂草去除。 本研究是在前人杂草分类研究(Chen et al. 2022)的基础上首次对美国棉花生产中最先进的多类杂草YOLO目标检测器进行综合性能评价。杂草数据集和本研究开发的软件程序均可公开访问。这项研究有望对未来开发基于机器视觉的棉花和其他作物除草系统产生积极影响。本文的主要贡献如下: 1、一个多样化的杂草数据集包括12个杂草类别的5648张图像以及9370个对美国南部棉花重要的杂草包围框; 2、对25台最先进的YOLO目标探测器进行了多类杂草检测的综合评价和基准测试; 3、研究了数据增加对YOLO模型性能的影响。
2、总结
杂草检测是利用机器视觉系统对杂草进行精确定位的重要环节。在有效杂草检测的核心是一个大规模的精确标记的杂草数据集的管理从而开发监督学习模型。 本文展示了迄今为止与美国棉花生产系统相关的最大的杂草检测数据集包括12个杂草类别的5648张图像共9370个边界框注释收集于各种自然光照条件下。通过多类杂草检测的转移学习建立了一套由25个选定的YOLO目标检测器组成的综合基准测试集并从检测快速性、模型复杂度和推理时间三个方面进行了评估。 YOLO检测模型获得了mAP0.5分数从YOLOv3tiny的88.14%到YOLOv4的95.22%不等。总体而言基于yolov4的模型比YOLOv3和YOLOv5的模型具有更高的准确率而YOLOv5n和YOLOv5s在实现相似检测精度的同时在快速推理时间上具有优势。数据增强对YOLO探测器尤其是YOLOv3tiny的性能有积极的影响。该性能基准有望为选择合适的YOLO目标检测器进行杂草检测提供参考也可用于精准农业的目标检测任务。杂草检测数据集和用于模型开发和评估的源代码都对研究社区开放。