-
随着我国城市城镇化加速,新旧建筑的更迭也不断加快,导致建筑垃圾数量增长迅速。建筑垃圾对环境造成了巨大危害,因此建筑垃圾的回收与利用对环境保护具有重要的意义。目前堆放和填埋作为主要处理建筑垃圾的方式,资源回收率低,环境危害大。建筑业作为碳排放最高的三大行业之一,节能减排的任务迫在眉睫。我国对建筑垃圾的处理方式相对单一,建筑垃圾的处理方式主要是采用不分拣直接处理的方式,多种建筑垃圾混杂在一起,造成利用率变低、资源浪费。目前,已有企业开始对建筑垃圾中混凝土块进行回收,然后粉碎用于建筑施工、路面铺设中,有效促进了资源回收利用。然而建筑垃圾中的砖块、泡沫板、塑料等垃圾直接影响到回收材料的使用性能,因此在回收生产过程中需要对其进行分拣。目前由于生产工况和成本的限制,生产线中通常采用传统人工分拣的方式。这种方式不仅效率低,而且垃圾处理生产线的环境较恶劣、粉尘较大,对人体身心健康有害。为此,针对建筑垃圾精准自动分拣的方法是一项值得研究的内容。
针对垃圾智能分类识别的研究,许多学者进行了深入探索。夏景明等[1]提出一种基于VGG16改进的轻量化垃圾分类网络模型LW-GCNet,将传统卷积替换为深度可分离卷积并添加SE注意力机制;原模型中的全连接层替换成自适应最大池化层和全局平均池化层。改进模型具有轻量化、识别准确率高等优势。赵冬娥等[2]利用光谱角填图法、主成成分分析法和Fisher判别分析建立了垃圾分类识别模型,实现了对高光谱图像中的垃圾进行分类识别。XIAO等[3]应用近红外高光谱技术对建筑垃圾进行提取和分类,为避免高光谱数据的冗余性,提出一种勾股小波变换 (PWT) 提取特征反射率的方法。同时,提出一种可以适应较恶劣的工作环境的互补故障排除方法 (CT) 用于在线识别建筑垃圾。赵珊等[4]提出一种基于改进SSD的垃圾分类检测模型,将隐式特征金字塔和MobileNetV2引入原始SSD模型得到改进模型,提升了模型检测精度的同时也加快了模型检测速度。ZHANG等[5]提出了一种基于ResNet18的垃圾分类模型 (CTR) ,通过在残差网络中加入了自监测模块,使得CTR模型可以整合所有通道映射的相关特征,压缩空间维度的特征,提高了特征图的表示能力,在TrashNet数据集上对该模型进行了测试,实验结果表明,该模型的图像分类达到较高的准确率。ZHANG等[6]提出了一种新的两阶段垃圾识别检测算法 (W2R) ,该算法分为训练识别模型 (RegM) 和通过语义检索构建识别检索模型 (RevM) 2个阶段。实验结果表明,由W2R算法训练的RevM的性能比一阶段分类模型 (ClfM) 和手动分拣实验 (MS) 更好且鲁棒性更高。高明等[7]提出了一种迁移学习网络架构GANet,并将GANet应用于垃圾分类识别中,将EfficientNet-B5作为主干网络;引入像素级空间注意力机制PSATT;应用RAdam优化方法、标签平滑正则化与Focal loss相结合的损失函数、改进的阶梯型OneCycle学习率控制法、SWA权重平滑等训练策略,GANet在云端部署测试中达到了较好的推理速度和较高的分类准确率。康庄等[8]提出了一种基于特征提取网络Inception v3和迁移学习相结合的方法,并将模型部署在树莓派3B+上,实现了对垃圾的自动分类回收。马雯等[9]将Faster R-CNN中特征提取网络VGG16替换为ResNet50,同时使用Soft-NMS算法代替原模型中非极大值抑制算法,得到一种改进的Faster R-CNN模型用于垃圾检测,改进模型对垃圾具有较高的检测精度。LIN等[10]提出了一种CVGGNet模型,即VGG结构 (VGGNet-11、VGGNet-13、VGGNet-16和VGGNet-19) 基于迁移学习,结合数据扩充和循环学习率对建筑垃圾进行分类。实验结果表明,循环学习率和迁移学习可以提高VGGNet的性能。NOWAKOWSKI[11]等利用卷积神经网络 (CNN) 对垃圾的类型进行分类,并利用区域卷积神经网络 (R-CNN) 检测垃圾的类别和大小,所采用的分类和检测算法均显示出较高的识别效率。此外,张睿萍等[12]将Mask R-CNN中特征提取主干网络ResNet替换为ResNeXt101得到改进模型,解决了垃圾多分类任务中分类检测效果不佳等问题。LU等[13]应用语义分割模型DeepLabv3+开发了建筑垃圾分割模型。邢洁洁等[14]将YOLOv5s模型进行了轻量化改进,并将改进模型部署到边缘计算机设备上应用于农田垃圾检测中。上述方法在不同程度上提升了垃圾分类检测的性能。建筑垃圾作为垃圾的一种,在分类检测方法上具有相通性,因此以上垃圾分类检测方法的提出为建筑垃圾分类检测的可行性提供了理论铺垫。
WANG等[15]提出了YOLOv7目标检测模型,并通过与以往目标检测模型检测性能进行对比,验证了YOLOv7具有更高的检测精度和更快的检测速度。由于建筑垃圾分拣任务中需要建筑垃圾分类检测算法具有较高的实时性和准确性,因此本研究选用YOLOv7作为基础模型对建筑垃圾进行分类检测。但由于建筑垃圾形状不规则且颜色差异大,故存在误检漏检的情况,因此本研究提出一种基于YOLOv7的改进模型DC-YOLOv7。本研究的创新点包括:1) 改进YOLOv7上采样模块,用CARAFE上采样算子替代最邻近插值上采样算子,提高了模型的检测精度,以实现对建筑垃圾的准确分类识别;2) 对YOLOv7模型进行轻量化设计,选用DSConv模块替换YOLOv7的Head中部分传统卷积,降低了模型计算量的大小,保持较高的分类检测速度;3) 将DC-YOLOv7模型应用在建筑垃圾分拣任务中,并通过实验验证了其有效性。
基于改进YOLOv7算法的建筑垃圾分类检测
Construction waste classification and detection algorithm based on improved YOLOv7
-
摘要: 基于深度学习算法的建筑垃圾分类检测技术对建筑垃圾回收和资源再利用具有重要意义。提出了改进的YOLOv7算法实现对建筑垃圾的分类检测。改进算法采用内容感知特征重组 (content-aware reassembly of features, CARAFE) 上采样算子替换YOLOv7中最邻近插值方式的上采样算子,从而提高了目标检测精度;引入分布移位卷积 (distribution shifting convolution, DSConv) 模块替换YOLOv7的头部网络中部分传统卷积,实现了模型的轻量化。结果表明,改进算法的mAP值达到了90.7%,模型计算量仅为96G。该方法具有准确率高、稳健性强等特点,在建筑垃圾分类检测实际场景中具有较高的应用价值。Abstract: The construction waste classification and detection technology based on deep learning algorithm is of great significance to the construction waste recycling and resource reuse. In this paper, the improved YOLOv7 algorithm was proposed to realize the classification and detection of construction waste. Firstly, the content aware reassembly of features (CARAFE) upsampling operator was used to replace the nearest interpolation upsampling operator in YOLOv7, which reduced the loss of image quality in the upsampling process and aggregates contextual information within a large receptive field, thereby improving the detection accuracy of construction waste. Secondly, the distribution shifting convolution (DSConv) module was introduced to replace the traditional convolution in the head network of YOLOv7, achieving lightweight of the model. The experimental results showed that the mAP value of the improved model reached 90.7%, and the computational complexity was only 96G. The improved model had higher accuracy and stronger robustness performance. It has high application value in the field of construction waste classification and detection.
-
Key words:
- construction waste detection /
- YOLOv7 /
- CARAFE /
- DSConv
-
表 1 不同模型的检测性能和参数对比结果
Table 1. The detection performance and parameter comparison results of different models
模型 评价指标 mAP/% 参数量/M FLOPs/G FPS/ (帧·s−1) Yolov7-tiny 54.5 5.9 13.7 212 Yolov7 69.1 35.2 104.5 89 Yolov7-X 70.4 68.0 189.7 54 表 2 相关硬件配置及模型参数
Table 2. Related hardware configuration and model parameters
名称 配置 名称 数值 GPU RTX3060 图像大小/像素 640×640 CPU R7 5800H 学习率 0.01 CUDA(版本) 11.3 迭代次数 300 内存 16G 批量大小 4 表 3 不同
和$ {K_{{\text{encoder}}}} $ 值的模型检测效果$ {K_{{\text{up}}}} $ Table 3. Detection performance of the improved mode with different
and$ {K_{{\text{encoder}}}} $ values$ {K_{up}} $ $ {K_{{\text{encoder}}}} $ $ {K_{{\text{up}}}} $ P/% R/% mAP/% FPS/ (帧·s−1) 1 3 90.8 82.6 90.7 61 1 5 95.9 74.6 90.6 54 3 3 94.1 84.9 90.4 61 3 5 93.9 81.4 91.0 55 3 7 96.5 76.1 91.0 43 5 5 96.2 80.4 90.7 53 5 7 97.0 84.2 91.7 43 表 4 基于YOLOv7模型的消融实验
Table 4. Ablation experiment based on YOLOv7 model
网络模型 评价指标 Params/M FLOPs/G mAP/% YOLOv7 35.5 105.2 88.4 改进模型Ⅰ 35.6 105.4 91.0 DC-YOLOv7 35.6 96.0 90.7 表 5 不同网络模型性能对比结果
Table 5. Performance comparison results of different network models
网络模型 评价指标 Params/M FLOPs/G FPS/ (帧·s−1) Faster RCNN 136.8 401.8 10 SSD 24.0 274.5 23 RFBNet 35.5 317.3 25 RetinaNet 36.4 146.3 27 YOLOv7 35.5 105.2 60 DC-YOLOv7 35.6 96.0 50 -
[1] 夏景明, 徐子峰, 谈玲. 轻量化网络LW-GCNet在垃圾分类中的应用[J]. 环境工程, 2023, 41(2): 173-180. [2] 赵冬娥, 吴瑞, 赵宝国, 等. 高光谱成像的垃圾分类识别研究[J]. 光谱学与光谱分析, 2019, 39(3): 921-926. [3] XIAO W, YANG J H, FANG H Y, et al. A robust classification algorithm for separation of construction waste using NIR hyperspectral system[J]. Waste Management, 2019, 90: 1-9. doi: 10.1016/j.wasman.2019.04.036 [4] 赵珊, 刘子路, 郑爱玲, 等. 基于MobileNetV2和IFPN改进的SSD垃圾实时分类检测方法[J]. 计算机应用, 2022, 42(S1): 106-111. [5] ZHANG Q, ZHANG X, MU X, et al. Recyclable waste image recognition based on deep learning[J]. Resources, Conservation and Recycling, 2021, 171(99): 105636. [6] ZHANG S, CHEN Y M, YANG Z L, et al. Computer vision based two-stage waste recognition-retrieval algorithm for waste classification[J]. Resources, Conservation and Recycling, 2021, 169: 105543. doi: 10.1016/j.resconrec.2021.105543 [7] 高明, 陈玉涵, 张泽慧, 等. 基于新型空间注意力机制和迁移学习的垃圾图像分类算法[J]. 系统工程理论与实践, 2021, 41(2): 498-512. [8] 康庄, 杨杰, 郭濠奇. 基于机器视觉的垃圾自动分类系统设计[J]. 浙江大学学报(工学版), 2020, 54(7): 1272-1280+1307. [9] 马雯, 于炯, 王潇, 等. 基于改进Faster R-CNN的垃圾检测与分类方法[J]. 计算机工程, 2021, 47(8): 294-300. [10] LIN K S, ZHOU T, GAO X F, et al. Deep convolutional neural networks for construction and demolition waste classification: VGGNet structures, cyclical learning rate, and knowledge transfer[J]. Journal of Environmental Management, 2022, 318: 115501. doi: 10.1016/j.jenvman.2022.115501 [11] NOWAKOWSKI P, PAMUA T. Application of deep learning object classifier to improve e-waste collection planning[J]. Waste Management, 2020, 109: 1-9. doi: 10.1016/j.wasman.2020.04.041 [12] 张睿萍, 宁芊, 雷印杰, 等. 基于改进Mask R-CNN的生活垃圾检测[J]. 计算机工程与科学, 2022, 44(11): 2003-2009. [13] LU W S, CHEN J J, XUE F. Using computer vision to recognize composition of construction waste mixtures: A semantic segmentation approach[J]. Resources, Conservation and Recycling, 2022, 178: 106022. doi: 10.1016/j.resconrec.2021.106022 [14] 邢洁洁, 谢定进, 杨然兵, 等. 基于YOLOv5s的农田垃圾轻量化检测方法[J]. 农业工程学报, 2022, 38(19): 153-161. [15] WANG C Y, BOCHKOVSKIY A, LIAO H. YOLOv7: trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023: 7464-7475. [16] 赵元龙, 单玉刚, 袁杰. 改进YOLOv7与DeepSORT的佩戴口罩行人跟踪[J]. 计算机工程与应用, 2023, 59(6): 10. [17] WANG Y, FU B, Fu L W, et al. In situ sea cucumber detection across multiple underwater scenes based on convolutional neural networks and image enhancements[J]. Sensors, 2023, 23(4): 2037. doi: 10.3390/s23042037 [18] WANG J Q, CHEN K, LIU Z W, et al. CARAFE: content-aware reassembly of features[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2019: 3007-3016. [19] 陈范凯, 李士心. 改进yolov5的无人机目标检测算法[J]. 计算机工程与应用, 2023, 59(18): 218-225. [20] GENNARI M, FAWCETT R, PRISACARIU V A. DSConv: effificient convolution operator[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019: 5148-5157. [21] 王浩, 吕晓琪, 谷宇. 基于语义融合与多尺度注意力的红外行人检测[J/OL]. 激光杂志. http://kns.cnki.net/kcms/detail/50.1085.tn.20230213.1802.006.html. [22] 肖振久, 林渤翰, 曲海成. 改进YOLOv7的SAR舰船检测算法[J]. 计算机工程与应用, 2023, 59(15): 243-252. [23] REN S Q, HE K W, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149. [24] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]//European Conference on Computer Vision. Berlin, Germany: Springer, 2016: 21-37. [25] LIU S T, HUANG D, WANG Y H. Receptive field block net for accurate and fast object detection[C]//European Conference on Computer Vision, 2018: 385-400. [26] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]// Proceedings of the IEEE international conference on computer vision, 2017: 2980-2988.