李鹏龙1,2,张胜茂2*,沈烈1*,樊伟2,顾家辉1,邹国华3
(1.大连海洋大学航海与船舶工程学院,辽宁大连116023;2.中国水产科学研究院东海水产研究所农业农村部渔业遥感重点试验室,上海200090;3.上海峻鼎渔业科技有限公司,上海200090)
摘要:为了检测观赏鱼类的行为及其健康状况,设计了一种具有双层路由注意力机制的血鹦鹉(Viejasynspila♀×Amphilophuscitrinellus♂)目标检测模型YOLOv8n-BiFormer,该方法在YOLOv8n模型基础上添加了双层路由注意力以减少计算量和内存,添加了新的视觉通用变换器BiFormer以提升计算效率,并采用ByteTrack算法追踪血鹦鹉的运动轨迹。结果表明:使用YOLOv8n-BiFormer模型对血鹦鹉的检测准确率达到99.2%,召回率为93.7%,平均精度均值(mAP@0.5)为99.1%,相较于YOLOv8n模型分别提升了0.8%、1.4%、1.0%;使用该模型对水族箱中的慈鲷(Chindongodemasoni)进行检测追踪同样取得了较好的效果,慈鲷的检测准确率达到97.0%,召回率为93.4%,平均精度均值为96.5%,相较于YOLOv8n模型召回率和平均精度分别提升了1.8%和1.9%。研究表明,本文中设计的YOLOv8n-BiFormer模型具有通用性,在检测和追踪血鹦鹉和慈鲷目标方面均表现优异,消耗的计算资源较少,可部署在水族箱监控系统中,为观赏鱼信息记录自动化和智能化提供了可行的解决方案。
关键词:血鹦鹉;慈鲷;YOLOv8模型;检测追踪;ByteTrack算法
DOI:10.16535/j.cnki.dlhyxb.2023-206
中图分类号:S917.4
文献标志码:A
收稿日期:2023-09-20
基金项目:国家自然科学基金(61936014);崂山实验室专项经费资助(LSKJ202201804)
作者简介:李鹏龙(2000—),男,硕士研究生。E-mail:15142892813@163.com
通信作者:张胜茂(1976—),男,博士,研究员。E-mail:ryshengmao@126.com沈烈(1981—),女,博士,讲师。E-mail:shenlie@dlou.edu.cn(并列通信作者)
近年来,随着经济快速增长和人们生活品质的提高,观赏鱼养殖和文化欣赏逐步进入大众视野,观赏鱼市场得到了迅速发展,2023年中国观赏鱼产业相较于2022年增长16.93%,全国观赏鱼产值突破百亿,达到110.92亿元[1]。不论是海洋水族馆还是家庭养殖,观赏鱼均深受人们喜爱。观赏鱼的行为和生长状态是影响观赏鱼养殖中的一个重要因素,通过对鱼类行为和生长状态进行长期监测,可以收集有关鱼类生活习性和其所处环境的重要数据。受水质、光线和噪声等因素的干扰,鱼类监测一直是个难点[2-3]。过去养殖人员和研究人员只能依靠人工进行观察和记录,需要耗费大量人力。现在利用机器视觉进行自动监测效率大幅提高,从而可以帮助研究者更加深入地探索观赏鱼的生态环境,提高观赏鱼的养殖效率和质量,同时也能给观赏鱼爱好者增加欣赏乐趣。
目前,国内外的观赏鱼检测追踪方法主要有两类:一是传统图像处理方法,包括背景提取、边缘检测和形态学处理等,但这些方法普遍精度较低,容易受光线和噪声等因素的干扰,对相似度较高的鱼类无法准确分辨,且在长期观测中会出现漏检和误检;二是基于深度学习的图像处理方法,即使用卷积神经网络CNN(convolutionalneuralnetworks)和循环神经网络RNN(recurrentneuralnetwork)对观赏鱼进行有效检测和跟踪,该方法相较于传统方法精度有了大幅提升,不足是需要大量标注数据训练,且需要算力较高的运算设备。
YOLOv8[16]模型采用轻量化的模型架构和多尺度训练技术,在保证高精度检测和快速检测的同时凭借其较小的体积可部署到更多的设备上。而ByteTrack则基于在线学习和轨迹预测,能够完成对运动目标的准确跟踪,解决了目标漏检和误检的问题,在保证提高精度的同时可降低设备成本,方便应用在不同条件下的场景。
使用5000万像素的索尼IMX766摄像机拍摄视频,摄像机参数:OIS激光对焦F1.4~F4.0六挡光圈,采用RYYB感光阵列,配合OIS光学防抖,3840×2160像素,帧率为30fps。摄像机放置在水族箱外正前方,拍摄血鹦鹉的位置和运动轨迹。图1展示了数据视频的拍摄场景。
图1血鹦鹉视频拍摄Fig.1Thevideoshootingofbloodparrot
本研究中,选取血鹦鹉作为研究目标,原因是血鹦鹉不仅为一种色彩斑斓、动态活跃的水生宠物,其大小适中、特点明显,而且其具有较高的观赏价值和商业价值。
首先对拍摄到的视频进行筛选,删除模糊和血鹦鹉动作较少的视频,选取一段时长为1min的视频。其次使用PotPlayer软件对视频进行逐帧截取,得到模型检测所需的1500张图像数据,删除一些不符合的图片。最后使用LabelImg软件在图像上对血鹦鹉进行标注,类别命名为“鹦鹉鱼”,标注后会生成带有位置坐标和类别名称的txt文件。将标注后的数据按照7∶2∶1的比例分为训练集、测试集和验证集。在标注和划分结束后,将图像进行水平翻转90°、顺时针旋转15°,增加5%噪声、25%灰度和40%亮度等操作进行数据增强,这样可以增加训练数据集的多样性,提高模型的鲁棒性。最终得到3900张图像66300个血鹦鹉目标,其中,训练集2730张图片,测试集780张图片,验证集390张图片,并形成coco格式的数据集。慈鲷数据集的制作方法与血鹦鹉数据集的制作方法相同。不同增强效果下的图像如图2所示。
图2不同增强效果下的图像Fig.2Imagesunderdifferentaugmentationeffects
YOLOv8是基于Python和PyTorch构建的目标检测网络模型,其整体架构主要分为3个部分:骨干网络部分(Backbone)、颈部网络部分(Neck)和检测头网络部分(Head)。其中,Backbone为网络的主干,常用骨干网络包括VGG(visualgeometrygroup)、ResNet(residualnetwork)[17]、DarkNet(darknetneuralnetworkframework)[18]等。相比于YOLOv7与YOLOv5等YOLO版本,YOLOv8模型将Neck和Backbone的C3模块更换为了C2f模块,在Head部分更换为解耦头结构并加入了新的损失函数,大幅提升了模型性能。YOLOv8模型更新了检测、分类、分割和追踪4类任务,训练速度大幅增强,在检测精度方面也有提升,更加适合小目标检测。此外,YOLOv8模型提供了完整的PyTorch代码,可以直接使用并进行自定义训练,同时还提供了已经预训练好的模型权重,方便快速迁移学习或应用到实际项目中。
图3ByteTrack算法流程Fig.3FlowchartoftheimprovedByteTrackalgorithm
图4YOLOv8n-BiFormer网络结构Fig.4ThenetworkstructureofYOLOv8n-BiFormer
试验基于Ubuntu18.04操作系统、Python3.10.11编程语言和Pytorch1.8.2深度学习框架。CPU配置为Intel(R)Core(TM)i5-8300HCPU@2.30GHz,Cuda版本为Cuda12.0,GPU为NVIDIAGeForceRTX4060ti。模型训练时使用的部分超参数设置:初始学习率为0.001,batchsize为16,迭代次数为150,优化器为随机梯度下降算法。
在检验模型效果时,采用准确率(precision,P)、召回率(recall,R)、模型参数量(parameters)、查准率与查全率(P-R)曲线、F1曲线、平均精度均值(mAP@0.5)、置信度为95%的平均绝对误差(mAP@0.95)来评估目标检测模型的性能。P-R曲线可以直观地显示出样本的精确率和召回率在总体数据上的关系,曲线与坐标轴围成的面积为类别平均精度(AP)和各类平均精度的均值(mAP)。mAP@0.5值越高代表模型检测物体位置的能力越强,mAP@0.95值越高代表模型在不同的场景应用需求下均可以达到较好的检测准确率。
3.3.1模型精度曲线图5(a)为改进后模型YOLOv8n-BiFormer的总体及两类目标在测试集上的P-R曲线对比图,其中,血鹦鹉(yingwuyu)和慈鲷(cichlid)的平均精度分别为0.991和0.965,两类平均精度的均值(mAP@0.5)为0.978。
图5YOLOv8n-BiFormer模型的P-R曲线和F1曲线Fig.5P-RcurveandF1curveofYOLOv8n-BiFormermodel
图5(b)为YOLOv8n-BiFormer模型的总体及两类目标在测试集上的F1得分图,其中,置信度在0.4~0.8上取得了比较高的F1分值,在置信度为0.486时,两类平均F1分值取得了最大值(0.964)。
3.3.2消融试验为了验证模型改进的有效性,设计了YOLOv8n、YOLOv8n-BiFormer-EfficientNet、YOLOv8n-BiFormer、YOLOv8n-CA、YOLOv8n-ShuffleAttention、YOLOv8n-BiFormer-jct和YOLOv8n-BiFormer-SPD模型的消融试验。YOLOv8n-BiFormer模型是指在YOLOv8n的基础上加入双层路由注意力机制;YOLOv8n-CA模型是指在YOLOv8n模型的基础上添加CA位置注意力机制;YOLOv8n-ShuffleAttention模型是指在YOLOv8n模型的基础上添加ShuffleAttention注意力机制,该注意力机制可以在减少计算量的同时提高模型的泛化能力;YOLOv8n-BiFormer-EfficientNet模型是指在YOLOv8n-BiFormer的基础上添加双层路由机制及更换著名的EfficientNet主干网络,该主干网络可以在保持轻量化的同时高效提取图像中的特征;YOLOv8n-BiFormer-jct是指在YOLOv8n-BiFormer的基础上添加针对小目标检测的检测头;YOLOv8n-BiFormer-SPD则是指在YOLOv8n-BiFormer的基础上更换适用于低像素图像和小目标的卷积神经网络模块SPD-CONV。
从表1可见,加入双层路由注意力机制后的YOLOv8n-BiFormer模型相较于其他模型,对血鹦鹉的检测准确率、召回率和mAP@0.5等大部分指标均为最高,其中召回率、mAP@0.5和mAP@0.95提升效果明显。
表1消融试验结果Tab.1Resultsofablationexperiment%
模型model准确率precision召回率recall平均精度均值mAP@0.5平均绝对误差mAP@0.95YOLOv8n0.9740.9230.9810.733YOLOv8n-BiFormer0.9920.9370.9910.736YOLOv8n-CA0.9750.9290.9660.650YOLOv8n-ShuffleAttention0.9710.9180.9640.640YOLOv8n-BiFormer-EfficientNet0.9640.9180.9590.622YOLOv8n-BiFormer-jct0.9670.9440.9770.657YOLOv8n-BiFormer-SPD0.9720.9270.9710.635
3.3.3不同模型的检测效果选用改进后的YOLOv8n-BiFormer模型与YOLO系列的YOLOv8n、YOLOv7和YOLOv5模型对血鹦鹉进行检测对比试验,结果发现:相较于YOLOv5模型,YOLOv8n-BiFormer模型的准确率、召回率、mAP@0.5、mAP@0.95分别提升了0.7%、3.5%、4.0%、7.1%;相较于YOLOv7模型,YOLOv8n-BiFormer模型的准确率增加了2.3%,召回率基本持平,mAP@0.5和mAP@0.95分别提升了2.2%、4.8%;相较于YOLOv8模型,YOLOv8n-BiFormer模型的准确率、召唤率、mAP@0.5分别提升了0.8%、1.4%、1.0%(表2)。这表明,YOLOv8n-BiFormer模型更加适合血鹦鹉的检测。图6展示了YOLOv8n-BiFormer模型对血鹦鹉目标的检测结果。
表2YOLO系列模型对血鹦鹉的检测结果Tab.2DetectionresultsofYOLOseriesmodelsonbloodparrots
图6YOLOv8n-BiFormer模型对血鹦鹉的检测结果Fig.6DetectionresultsofbloodparrotsbyYOLOv8n-BiFormermodel
3.3.4模型通用性验证试验为验证本研究中方法对其他相似鱼类具有一定的通用性,以慈鲷为例进行检测与追踪。慈鲷是最受人们欢迎的观赏鱼之一,慈鲷通常具有多种颜色,包括黄、蓝、绿和红色等,且具有深色底部并带有明亮的斑点或条纹。慈鲷游动速度较缓慢,在检测追踪时,可以得到较为清晰稳定的图像,不会出现目标虚化或者快速移动导致丢失目标的情况。慈鲷相较于血鹦鹉颜色和花纹更为复杂,大小体型也不尽相同。若能使用该模型成功实现慈鲷的检测和追踪,即可证明本研究中的方法适用于现有大部分观赏鱼的检测和追踪。
选用YOLOv8n-BiFormer模型与YOLOv8n、YOLOv7和YOLOv5模型对慈鲷进行检测对比试验,结果发现:相较于YOLOv7模型,YOLOv8n-BiFormer模型的准确率提升了2.2%,召回率、mAP@0.5和mAP@0.95分别提升了12.1%、9.1%、13.9%;相较于YOLOv5s和YOLOv8n模型,YOLOv8n-BiFormer模型的准确率相差不大,但召回率、mAP@0.5和mAP@0.95相较于YOLOv5s提升了4.4%、3.0%、6.4%,相较于YOLOv8n提升了1.8%、1.9%、1.8%,在参数量上较YOLOv8n减少了128682个(表3)。图7展示了YOLOv8-BiFormer模型对慈鲷目标的检测效果。
表3YOLO系列模型对慈鲷的检测结果
Tab.3DetectionresultsofcichlidsbyYOLOseriesmodels%
模型model准确率precision召回率recall平均精度均值mAP@0.5平均绝对误差mAP@0.95YOLOv5s97.289.093.550.3YOLOv794.881.387.442.8YOLOv8n97.291.694.654.9YOLOv8n-BiFormer97.093.496.556.7
图7YOLOv8n-BiFormer模型对慈鲷的检测结果Fig.7DetectionresultsofcichlidsbyYOLOv8n-BiFormermodel
目前,传统的追踪算法有SORT(simpleonlineandrealtimetracking)、DeepSORT(deeplearning-basedSORT)[20]。SORT算法主要依赖于外部目标检测器的输出,在单目标或低密度场景下可能存在目标丢失的情况。DeepSORT算法是在SORT算法的基础上,采用深度学习方法提取特征,在数据关联和多目标跟踪中引入深度学习的一种算法。DeepSORT算法可以高效处理多目标、复杂运动情况下目标的跟踪任务。缺点是计算复杂度较高,对于一些质量较低的检测框,可能无法正确识别目标。相比之下,ByteTrack算法能够在目标检测的基础上实现更准确的目标跟踪,且在高密度场景中同时跟踪多个重叠的目标。ByteTrack算法在设计上针对目标遮挡、尺度变化和运动模糊等常见挑战做出了改进,相较于SORT、DeepSORT等传统的目标跟踪算法更适合本研究要求。因为其点线集成(PLI)跟踪算法能够较好地适应鱼类不同的运动状态和形态,以及较为复杂的水下环境,且具有良好的抗干扰能力。综上所述,ByteTrack算法更加适合鱼类的检测和追踪。图8为采用DeepSORT和ByteTrack算法追踪后的血鹦鹉图像,图9为采用ByteTrack算法追踪后的慈鲷图像。
图8不同追踪算法对血鹦鹉的追踪结果Fig.8Trackingresultsofdifferenttrackingalgorithmsonbloodparrot
图9ByteTrack算法对慈鲷的追踪结果Fig.9TrackingresultsofByteTrackalgorithmsoncichlid
ByteTrack算法需要的参数主要有track_thres(跟踪阈值)、track_buffe(缓冲区大小,即历史帧上保存的检测结果数量)、match_thresh(匹配阈值)、aspect_ratio_thresh(宽高比阈值)、min_box_area(最小Box面积)和mot20(是否使用mot20训练集进行训练),可以根据实际需要通过调整这些参数来优化算法。
本研究中,在设置参数时主要参考交并比(intersectionoverunion,IoU)值和要追踪物体的大小、速度和数量。本次追踪的目标血鹦鹉运动速度比较慢,所以需要降低track_thres的值来增加追踪的灵敏度,以防止在追踪过程中出现卡顿。同时需要较小的缓冲区,以避免追踪器在连续多帧都未检测到目标时,将其误判为已离开画面。将track_thres设置为0.25,track_buffe设为30,较小的缓冲区能够更快地更新历史帧上保存的检测结果,保持对血鹦鹉追踪的连续性。match_thresh用于判断一个新检测到的边界框是否与之前被追踪的目标匹配,由于本研究中的鱼类个体均偏大,将match_thresh设置为0.8可以过滤掉一些误检测的边界框。aspect_ratio_thresh用于排除不符合鱼类特征的无效边界框,故设置为3.0,这样可以提高目标检测的准确性,避免误判。min_box_area为最小边界框面积,用于排除面积过小的边界框,避免追踪错误的小目标。根据所选鱼类的特征,将最小边界框面积设置为1.0,可以过滤掉面积过小的无效边界框,提高目标追踪的准确性。由于并不需要使用mot20训练集,故mot20保持默认值False。
1)本研究中提出了一种基于改进YOLOv8n模型的鱼类检测模型YOLOv8n-Biformer模型,该模型在血鹦鹉数据集上的检测准确率为99.2%,平均精度均值为99.1%,召回率为93.7%,并且结合ByteTrack追踪算法实现了对血鹦鹉和慈鲷的精确追踪。使用该模型可方便地对观赏鱼的活动状态进行追踪观察,避免了传统的人工记录鱼类活动信息时的一些缺点。
2)本研究中提出的YOLOv8n-Biformer模型,相较于其他主流模型如YOLOv5和YOLOv7,以及其他改进模型YOLOv8-CA、YOLOv8n-ShuffleAttention、YOLOv8n-BiFormer-EfficientNet、YOLOv8n-BiFormer-jct和YOLOv8n-BiFormer-SPD,在平均精度均值上均有提升,同时YOLOv8n-Biformer模型相比于YOLOv8n检测速度更快,可以为海洋水族馆珍稀鱼类精细化管理、渔业环境保护和资源管理等领域提供帮助,适合部署在算力资源缺少的生产环境中。本研究结果为后续实现更高精度、更准确的鱼类识别和追踪方法提供了有益参考。
致谢:东海水产研究所与大连海洋大学联合培养研究生王书献,在ByteTrack程序调试中给予了帮助,东海水产研究所与上海海洋大学联合培养研究生孙月莹,在本文写作方面给予了帮助,谨此致谢!
参考文献:
[1]于秀娟,郝向举,冯天娇,等.中国休闲渔业发展监测报告(2023)[J].中国水产,2023(11):22-27.YUXJ.HAOXJ.FENGTJ,etal.MonitoringreportonthedevelopmentofrecreationalfisheriesinChina(2023)[J].ChinaFisheries,2023(11):22-27.(inChinese)
[2]刘洋,张胜茂,王书献,等.水族馆鱼类目标检测网络优化研究[J].渔业现代化,2022,49(3):89-98.LIUY,ZHANGSM,WANGSX,etal.Researchonoptimizationofaquariumfishtargetdetectionnetwork[J].FisheryModernization,2022,49(3):89-98.(inChinese)
[3]张胜茂,刘洋,樊伟,等.基于TensorFlow的水族馆鱼类目标检测APP开发[J].渔业现代化,2020,47(2):60-67.ZHANGSM,LIUY,FANW,etal.AquariumfishtargetdetectionAPPdevelopmentbasedonTensorFlow[J].FisheryModernization,2020,47(2):60-67.(inChinese)
[4]刘洋,张胜茂,王斐,等.海洋捕捞鱼类BigH神经网络分类模型设计与实现[J].工业控制计算机,2021,34(6):18-20.LIUY,ZHANGSM,WANGF,etal.Automatictransferlearningandmanualneuralnetworkformarinefishclassification[J].IndustrialControlComputer,2021,34(6):18-20.(inChinese)
[5]张胜茂,孙永文,樊伟,等.面向海洋渔业捕捞生产的深度学习方法应用研究进展[J].大连海洋大学学报,2022,37(4):683-695.ZHANGSM,SUNYW,FANW,etal.Researchprogressintheapplicationofdeeplearningmethodsformarinefisheryproduction:areview[J].JournalofDalianOceanUniversity,2022,37(4):683-695.(inChinese)
[6]王书献,张胜茂,唐峰华,等.CNN-LSTM在日本鲭捕捞渔船行为提取中的应用[J].农业工程学报,2022,38(7):200-209.WANGSX,ZHANGSM,TANGFH,etal.ExtractingthebehaviorofScomberjaponicusfishingvesselusingCNN-LSTM[J].TransactionsoftheChineseSocietyofAgriculturalEngineering,2022,38(7):200-209.(inChinese)
[8]张佳泽,张胜茂,王书献,等.基于3-2D融和模型的毛虾捕捞渔船行为识别[J].南方水产科学,2022,18(4):126-135.ZHANGJZ,ZHANGSM,WANGSX,etal.RecognitionofAceteschinensisfishingvesselbasedon3-2Dintegrationmodelbehavior[J].SouthChinaFisheriesScience,2022,18(4):126-135.(inChinese)
[9]杨东海,张胜茂,汤先峰.基于机器视觉技术的鱼类识别研究进展[J].渔业信息与战略,2019,34(2):112-120.YANGDH,ZHANGSM,TANGXF.Researchanddevelopmentoffishspeciesidentificationbasedonmachinevisiontechnology[J].FisheryInformation&Strategy,2019,34(2):112-120.(inChinese)
[10]蒋梦迪,程江华,陈明辉,等.视频和图像文本提取方法综述[J].计算机科学,2017,44(S2):8-18.JIANGMD,CHENGJH,CHENMH,etal.Textextractioninvideoandimages:areview[J].ComputerScience,2017,44(S2):8-18.(inChinese)
[11]裴凯洋,张胜茂,樊伟,等.基于计算机视觉的鱼类视频跟踪技术应用研究进展[J].海洋渔业,2022,44(5):640-647.PEIKY,ZHANGSM,FANW,etal.Researchprogressoffishvideotrackingapplicationbasedoncomputervision[J].MarineFisheries,2022,44(5):640-647.(inChinese)
[12]GIRSHICKR.FastR-CNN:proceedingsoftheIEEEinternationalconferenceoncomputervision[J].Santiago,2015:7-13.
[13]RENS,HEK,GIRSHICKR,etal.FasterR-CNN:towardsreal-timeobjectdetectionwithregionproposalnetworks[J].AdvancesinNeuralInformationProcessingSystems,2015,28:91-9.
[14]GIRSHICKR,DONAHUEJ,DARRELLT,etal.Richfeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentation[C]//2014IEEEconferenceoncomputervisionandpatternrecognition.Columbus,OH,USA:IEEE,2014:580-587.
[15]王书献,张胜茂,朱文斌,等.基于深度学习YOLOV5网络模型的金枪鱼延绳钓电子监控系统目标检测应用[J].大连海洋大学学报,2021,36(5):842-850.WANGSX,ZHANGSM,ZHUWB,etal.ApplicationofanelectronicmonitoringsystemforvideotargetdetectionintunalonglinefishingbasedonYOLOV5deeplearningmodel[J].JournalofDalianOceanUniversity,2021,36(5):842-850.(inChinese)
[16]李家俊.基于改进YOLOX的目标检测与跟踪算法研究[D].赣州:江西理工大学,2022.LIJJ.ResearchontargetdetectionandtrackingalgorithmbasedonimprovedYOLOX[D].Ganzhou:JiangxiUniversityofScienceandTechnology,2022.(inChinese)
[18]HEKM,ZHANGXY,RENSQ,etal.Deepresiduallearningforimagerecognition[C]//2016IEEEconferenceoncomputervisionandpatternrecognition(CVPR).LasVegas,NV,USA:IEEE,2016:770-778.
[19]孙月莹,陈俊霖,张胜茂,等.基于改进YOLOv7的毛虾捕捞渔船作业目标检测与计数方法[J].农业工程学报,2023,39(10):151-162.SUNYY,CHENJL,ZHANGSM,etal.TargetdetectionandcountingmethodforAceteschinensisfishingvesselsoperationbasedonimprovedYOLOv7[J].TransactionsoftheChineseSocietyofAgriculturalEngineering,2023,39(10):151-162.(inChinese)
[20]胡辉,司凤洋,曾琛,等.一种结合Dropblock和Dropout的正则化策略[J].河南师范大学学报(自然科学版),2019,47(6):51-56.HUH,SIFY,ZENGC,etal.AregularizationstrategycombiningDropblockandDropout[J].JournalofHenanNormalUniversity(NaturalScienceEdition),2019,47(6):51-56.(inChinese)
[21]涂万,于红,张鹏,等.基于通道非降维与空间协调注意力的改进YOLOv8养殖鱼群检测[J].大连海洋大学学报,2023,38(4):717-725.TUW,YUH,ZHANGP,etal.FarmedfishdetectionbyimprovedYOLOv8basedonchannelnon-degradationwithspatiallycoordinatedattention[J].JournalofDalianOceanUniversity,2023,38(4):717-725.(inChinese)
YOLOv8bloodparrotobjectdetectionandtrackingmethodwithdual-layerroutingattentionmechanismLIPenglong1,2,ZHANGShengmao2*,SHENLie1*,FANWei2,GUJiahui1,ZOUGuohua3
(1.CollegeofNavigationandShipEngineering,DalianOceanUniversity,Dalian116023,China;2.KeyLaboratoryofFisheriesRemoteSensing,MinistryofAgricultureandRuralAffairs,EastChinaSeaFisheriesResearchInstitute,ChineseAcademyofFisherySciences,Shanghai200090,China;3.ShanghaiJundingFisheryTechnologyCompanyLimited,Shanghai200090,China)
Keywords:Viejasynspila♀×Amphilophuscitrinellus♂;Chindongodemasoni;YOLOv8model;detectionandtracking;ByteTrackalgorithm