本文摘要:摘要:针对现有目标检测算法难以在果园复杂环境下对苹果花朵生长状态进行高精度检测的问题,提出一种改进YOLOv5的苹果花朵生长状态检测方法,对花蕾、半开、全开、凋落四类苹果树开花期花朵生长状态进行检测。该方法首先对跨阶段局部网络模块进行改进,并调整模块数量
摘要:针对现有目标检测算法难以在果园复杂环境下对苹果花朵生长状态进行高精度检测的问题,提出一种改进YOLOv5的苹果花朵生长状态检测方法,对花蕾、半开、全开、凋落四类苹果树开花期花朵生长状态进行检测。该方法首先对跨阶段局部网络模块进行改进,并调整模块数量,结合协同注意力模块设计主干网络,提高模型检测性能并减少参数。其次,结合新的检测尺度与基于拆分的卷积运算设计特征融合网络,提升网络特征融合能力,最后选用CIoU作为边框回归的损失函数实现高精度的定位。将所改进算法与原始YOLOv5算法在自建数据集上进行对比实验,通过实验结果表明,本文方法mAP达到92.2%,比YOLOv5提高5.4%,与其他主流算法相比检测精度有较大提升,证明了算法的有效性。
关键词:YOLOv5;农业自动监测;特征融合;目标检测
近几年来我国经济林果产业飞速发展,苹果作为最常见的经济林果之一,其规模与产量逐年增加,但目前经济林果的栽培质量与技术仍然有待提高。在苹果发育的整个物候期中,想要提高苹果产量除了要做好土、肥、水管理和病虫害防治外,花期管理在整个过程中也具有非常重要的地位,在不同的花朵生长状态对其进行人工干预可以有效提高坐果率和果实品质。对于苹果花朵生长状态的自动检测也成为一项具有重要价值的研究。目前,国内外对经济林果等农作物的自动观测已经展开了非常广泛的研究,通过计算机视觉技术可以实现农作物的自动化观测,从而提高对农作物的管理效率。
目前已经有多种方法实现了对苹果的自动观测,观测的工作集中于对苹果果实的检测与产量估计,以及对苹果物候期的检测。但是,关于苹果花期生长状态识别方面的研究目前还存在很多不足,当前的已有成果只能单独检测全开的花朵而无法将各种生长状态的花朵进行高精度的分类检测。现阶段对农作物花期的自动观测集中于图像分割与目标检测的手段。邓颖等[1]使用基于MaskRCNN的神经网络模型完成了花朵的识别和分割任务所提出的柑橘花朵分割识别方法实现了对柑橘花朵目标的高效检测。
Sharma等[2]通过对花朵的形状分析,使用HSV色彩空间的图像分割和圆形拟合算法计算出的圆心提出了一种花朵自动分割与数量估算方法。刘双喜等[3]通过分析花朵簇轮廓面积值特征,并将其作为聚类特征,建立花量的模糊聚类模型,实现苹果的花朵数量估计。DiasP等[4]使用SLIC和CNN结合的思想,提出一种对预训练卷积神经网络进行微调以使其对花朵敏感的花朵分割方法。郑玉龙等[5]提出一种结合Adam及Sgd的深度学习模型Resnet20实现自然环境下的花朵识别。
DihuaWu等[6]在CSPDarknet53框架下构建YOLOv4模型,使用通道修剪算法对模型进行了修剪,从而实现快速,准确地检测苹果花。总结以上方法,基于通用深度学习的模型虽然在苹果花朵检测这一领域做了大量研究且对比传统方法有效提升了检测性能,但对苹果花朵生长状态进行高精度检测方面的研究尚未取得有效成果。在现阶段模型训练与推理时也会占用大量的计算资源。致使无法做到低成本的学习,也难以实现低成本、高精度的农业自动化管理。在此现状下,亟须一种针对苹果花朵生长状态的一阶段检测方法,从而实现对复杂场景下苹果花朵生长状态的检测。
因此,本文针对现存问题构建了一个真实果园场景下的苹果花期花朵图像数据集,提出了一种改进YOLOv5的苹果花朵生长状态检测方法,直接针对花朵区域,对花朵花蕾期、半开期、全开期、凋落期四种生长状态进行识别,具有模型架构简单,容易训练,收敛快的优势。该方法基于YOLOv5架构,结合协同注意力机制CA(CoordinateAttention)模块[7]对主干网络模块进行改进和调整,减少模型参数并利用更多的浅层特征;设计多尺度检测结构,提高对于小目标物体的检测性能;融合基于分离的卷积运算[8]重新设计特征融合网络;使用CIoU作为边界框回归的损失函数。实验表明,本文方法对小目标检测效果良好,可以应对花朵半开与全开特征不明显而导致的误检情况,并在精度上相比于基线方法都取得一定幅度提升。
1YOLO目标检测模型
目前,基于深度学习的目标检测技术框架主要分为一阶段与两阶段目标检测器两大类,两阶段的检测器首先生成可能包含目标物体的候选区域,并从每个候选区域中提取特征,再对候选区域进行进一步的分类和校准,从而得到最终的结果,如FasterRCNN[9]、CascadeRCNN[10]等。单阶段检测器可以直接对特征图上每个位置的目标进行分类预测,具有更高的检测效率,如RetinaNet[11]、SSD[12]、CenterNet[13]等。两阶段检测器通常在数据集上具有更好的检测性能,单阶段检测器在保障检测精度的前提下具有更高的时间效率,对硬件设备的要求更低,在农业自动观测领域具有更好的适用性。
1.1YOLOv5架构
YOLOv5(YouOnlyLookOnce)是由UitralyticsLLC公司发布的一种单阶段目标检测算法,YOLOv5相比YOLOv4[14]而言,在检测平均精度降低不多的基础上,具有均值权重文件更小,训练时间和推理速度更短的特点。YOLOv5的网络结构分为输入端、Backbone、Neck、Head四个部分。输入端主要包括Mosaic数据增强、图片尺寸处理以及自适应锚框计算三部分。
Mosaic数据增强将四张图片进行组合,达到丰富图片背景的效果;图片尺寸处理对不同长宽的原始图像自适应的添加最少的黑边,统一缩放为标准尺寸;自适应锚框计算在初始锚框的基础上,将输出预测框与真实框进行比对,计算差距后再反向更新,不断迭代参数来获取最合适的锚框值。Backbone主要包含了BottleneckCSP[15]和Focus模块。BottleneckCSP模块在增强整个卷积神经网络学习性能的同时大幅减少了计算量;Focus模块对图片进行切片操作,将输入通道扩充为原来的4倍,并经过一次卷积得到下采样特征图,在实现下采样的同时减少了计算量并提升了速度。
Neck中采用了FPN[16]与PAN结合的结构,将常规的FPN层与自底向上的特征金字塔进行结合,将所提取的语义特征与位置特征进行融合,同时将主干层与检测层进行特征融合,使模型获取更加丰富的特征信息。Head输出一个向量,该向量具有目标对象的类别概率、对象得分和该对象边界框的位置。检测网络由三层检测层组成,不同尺寸的特征图用于检测不同尺寸的目标对象。每个检测层输出相应的向量,最后生成原图像中目标的预测边界框和类别并进行标记。
1.2YOLOv5在花朵生长状态检测中的问题
尽管YOLOv5已经具有了良好的检测性能和推理速度,但针对本文所解决问题,仍然存在以下缺陷:
(1)算法中主干网络有较多的Bottleneck结构,卷积操作中的卷积核包含大量参数,导致识别模型中含有大量参数,增加了模型的部署成本。由于花蕾期目标较小,且小目标的物体更依赖于浅层特征,故特征提取中通过大量的卷积之后容易对小目标对象的特征提取造成一定的信息丢失。(2)原始模型中分别利用8倍下采样、16倍下采样、32倍下采样的特征图作为特征层去检测目标,当输入图像尺寸为640×640时,大小分别为80×80、40×40、20×20的检测层大小可以用来分别检测大小在8×8、16×16、32×32以上的目标,所以当某一目标在原输入图像中大小小于8×8时去检测目标将会变得困难。
(3)在路径聚合网络PANet[17](PathAggregationNetwork)中虽然将深层特征图和浅层特征图拼接来融合不同级别的特征信息,但其并未将更加底层的特征图与高层特征图进行融合,且未考虑特征内部的模式冗余。(4)当预测框在目标框内部且预测框大小一致时,边界框回归损失函数GIoU完全退化为IoU损失函数,无法实现高精度的定位。2改进的YOLOv5算法针对YOLOv5在花朵生长状态检测中所存在的问题,本文对模型做出如下改进来提升对花朵生长状态的检测效果:
(1)在主干网络中引入协同注意力机制,在捕获跨通道信息的同时,还能捕获方向感知和位置感知信息,帮助模型更加精准地定位和识别感兴趣区域。对BottleneckCSP结构修改,并减少模块数量来保留更多的浅层特征。(2)在原有网络结构三层检测层的基础上,添加小目标检测层,从而提高对小目标物体的检测性能。(3)将PANet中更加底层的特征图与高层特征图进行融合,且在PANet中使用基于分离的卷积运算来消除同一层内输入特征图中存在的冗余问题。(4)使用CIoU作为边界框回归的损失函数,解决预测框在目标框内部且预测框大小一致的情况,提高定位精度。
3实验
3.1数据集
本文的数据来源于中国山西临猗农田试验站,参考农业气象观测规范,制定适宜本地的苹果花期观测标准,于2019年4月(花蕾期)开始,采集至2019年5月(凋落期)结束,使用38885184像素分辨率的田间实时监测设备在不同花期进行图像采集,采集时间段设定为每天8点11点、12点15点、16点19点,构建了苹果花期花朵不同生长状态的图像数据集。
4结束语
本文针对通用深度学习目标检测技术难以在复杂果园背景下对苹果花朵不同生长状态进行高精度检测的问题,提出一种改进YOLOv5的苹果花朵生长状态检测方法。该方法基于YOLOv5网络架构,结合CA注意力模块与改进的BSP_1模块设计主干网络提取特征;增加多尺度检测结构并融合基于分离的卷积运算设计了高效的目标提取网络;使用CIoU作为边框回归的损失函数,提高边框回归精度。
实验表明,本文所提出的检测方法能够准确、快速地检测出不同生长状态下的花朵图像。本文方法在NvidiaRTX2080Ti测试条件下mAP达到0922,速度为9321FPS,实现了高精度、高速率的检测,性能高于通用目标检测模型,该方法为苹果花期管理提供了有益的帮助。下一步将在嵌入式设备上进行模型的性能改进,进一步改进网络结构,以实现移动端实时花朵生长状态检测。
参考文献
[1]邓颖,吴华瑞,朱华吉.基于实例分割的柑橘花朵识别及花量统计[J].农业工程学报,2020,036(7):200207.DengYing,WuHuarui,ZhuHuaji.Citrusfloweridentificationandflowervolumestatisticsbasedoninstancesegmentation[J].TransactionsoftheChineseSocietyofAgriculturalEngineering,2020,036(7):200207.
[2]SharmaA,SharmaVK,SrivastavaDK.Overlappedflowersyielddetectionusingcomputerbasedinterface[J].PerspectivesinScience,2016,8:2527.
[3]刘双喜,孙林林,王震等.复杂背景下苹果树花量模糊聚类准确估测模型[J].中国农机化学报,2017,38(8):7481.LiuShuangxi,SunLinlin,WangZhen,etal.FuzzyClusteringAccurateEstimationModelofAppleTreeFlowerVolumeunderComplexBackground[J].ChineseJournalofAgriculturalMachineryChemistry,2017,38(8):P.7481
[4]DiasPA,TabbA,MedeirosH.Appleflowerdetectionusingdeepconvolutionalnetworks[J].ComputersinIndustry,2018,99:1728.
[5]郑玉龙赵明基于深度学习的自然环境下花朵识别[J].计算技术与自动化,2019,(2):114118.ZhengYL,ZhaoM.Flowerrecognitioninnaturalenvironmentbasedondeeplearning[J].ComputingTechnologyandAutomation,2019,(2):114118.
作者:杨其晟,李文宽,杨晓峰,岳琳茜,李海芳
转载请注明来自发表学术论文网:http://www.fbxslw.com/nylw/28527.html