遥感技术与应用, 2022, 37(2): 290-305 doi: 10.11873/j.issn.1004-0323.2022.2.0290

综述

基于深度学习的遥感图像目标检测技术研究进展

付涵,1,2, 范湘涛1, 严珍珍,1, 杜小平1

1.中国科学院空天信息创新研究院数字地球重点实验室,北京 100094

2.中国科学院大学,北京 100094

Progress of Object Detection in Remote Sensing Images based on Deep Learning

Fu Han,1,2, Fan Xiangtao1, Yan Zhenzhen,1, Du Xiaoping1

1.Key Laboratory of Digital Earth Science,Aerospace Information Research Institute,Chinese Academy of Sciences,Beijing 100094,China

2.University of Chinese Academy of Sciences,Beijing 100094,China

通讯作者: 严珍珍(1981-),女,湖北随州人,副研究员,主要从事数字地球、遥感应用与数值模拟研究。E⁃mail: yanzz@radi.ac.cn

收稿日期: 2020-11-10   修回日期: 2021-01-06  

基金资助: 国家重点研发计划.  2018YFC1504201D
中国科学院战略先导科技专项(A类).  XDA 19080101.  XDA19080103
国家自然科学基金面上项目.  41974108

Received: 2020-11-10   Revised: 2021-01-06  

作者简介 About authors

付涵(1994-),女,河北易县人,博士研究生,主要从事深度学习在遥感图像处理中的应用研究E⁃mail:fuhan@radi.ac.cn , E-mail:fuhan@radi.ac.cn

摘要

目标检测是遥感图像信息提取领域中的研究热点之一,具有广泛的应用前景。近些年来,深度学习在计算机视觉领域的发展为海量遥感图像信息提取提供了强大的技术支撑,使得遥感图像目标检测的精确度和效率均得到了很大提升。然而,由于遥感图像目标具有多尺度、多种旋转角度、场景复杂等特点,在高质量标记样本有限的情况下,深度学习在遥感图像目标检测应用中仍面临巨大挑战。从尺度不变性、旋转不变性、复杂背景干扰、样本量少和多波段数据检测5个角度出发,总结了近几年基于深度学习的遥感图像目标检测方法。此外,对典型遥感图像目标的检测难点和方法进行分析和总结,并对公开的遥感图像目标检测数据集进行概述。最后阐述了遥感图像目标检测研究的未来趋势。

关键词: 遥感图像 ; 目标检测 ; 深度学习 ; 卷积神经网络

Abstract

Object detection has always been a hot topic in the field of remote sensing images information extraction, and has a wide range of application prospect in many fields. The development of deep learning in the field of computer vision provides a strong technical support for the extraction of massive remote sensing images, and greatly improves the accuracy and efficiency of object detection in remote sensing images. However, objects in remote sensing images have the characteristics of multiple scales, multiple rotation angles and complex scenes, deep learning technique still faces great difficulties in the application of remote sensing images object detection with limited high-quality labeled samples. According to five aspects of scale invariance, rotation invariance, complex background interference, limited training samples and detection of multi-band data, the existing algorithms of object detection based on deep learning in the field of remote sensing images in recent years are introduced and summarized. In addition, the difficulties and methods of detecting typical objects in remote sensing images are analyzed and summarized, and the common datasets of remote sensing images object detection including optical images and SAR images are also given general introduction. Finally, the future trends of object detection in remote sensing images are analyzed.

Keywords: Remote sensing images ; Object detection ; Deep learning ; Convolutional Neural Network

PDF (1905KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

付涵, 范湘涛, 严珍珍, 杜小平. 基于深度学习的遥感图像目标检测技术研究进展. 遥感技术与应用[J], 2022, 37(2): 290-305 doi:10.11873/j.issn.1004-0323.2022.2.0290

Fu Han, Fan Xiangtao, Yan Zhenzhen, Du Xiaoping. Progress of Object Detection in Remote Sensing Images based on Deep Learning. Remote Sensing Technology and Application[J], 2022, 37(2): 290-305 doi:10.11873/j.issn.1004-0323.2022.2.0290

1 引 言

目标检测的定义来源于计算机视觉领域,即对图像中感兴趣的目标物体进行检测识别,并标记出其所在位置。在计算机视觉领域,目标检测的对象可以是现实世界里的任何对象,比如人、动物、汽车、建筑物等。在航空和卫星遥感图像中,目标检测对象大多是具有丰富自然属性和社会属性的地物1,比如飞机、车辆、船舶、建筑等有清晰边界,可以明显区别于背景环境的单一目标2;或者是多种单目标的组合体,比如机场、水泥厂、钢铁厂等。对地观测技术的快速发展,使得我们能够获取大量多时相、多维度、高分辨率的遥感图像。高分辨率遥感图像包含了丰富的地物细节特征,具有更加丰富的空间结构和拓扑关系。面对海量高分辨率遥感图像所蕴含的丰富地物信息,如何智能提取我们感兴趣的目标特征,一直是遥感图像目标检测研究中的热点。

遥感图像的信息特征可以分为低层特征、中层特征和高层特征。低层特征包括图像的光谱、纹理和结构等信息;中层特征是对低层特征的编码;高层特征是抽象的语义信息。传统的光学遥感图像信息提取方法是基于地物光谱、灰度值、纹理、形状等特征信息进行提取,仅能在特定场景下获得较理想的结果。随着大数据时代的到来,依靠人工设计的特征描述能力变得有限,已无法满足遥感大数据的处理需求。因此,智能信息提取变得越来越具有挑战性。

近年来,深度学习的快速发展,为遥感图像智能信息提取提供有利的技术支撑。基于深度学习的目标检测方法大多以卷积神经网络(Convolutional Neural Network,CNN)作为主干网络,因为卷积神经网络可以自动提取高层语义特征,相比于传统的人工提取特征,具有更强的特征表示能力;同时,卷积神经网络主动学习特征的能力,在大数据时代具有突出优势。卷积神经网络的快速发展,解决了计算机视觉领域的很多难题,在图像目标检测领域取得了巨大成功3-13。然而,深度学习模型很大程度上依赖于庞大的标记数据,这需要大量的人工成本和时间成本。由于遥感图像目标具有多尺度、多旋转角度等特点,且易受光照条件、遮挡、复杂背景等影响,与自然图像目标特征存在明显差异,这使得以卷积神经网络为核心的深度学习模型直接应用到遥感图像目标检测存在一定困难14

总结了不同技术难点下的遥感图像目标检测研究进展,并对典型目标的检测方法和难点进行了归纳和分析,同时介绍了几种公开的遥感图像目标检测数据集,并探讨了遥感图像目标检测研究的未来趋势,以期为遥感图像目标检测研究提供科学参考。

2 遥感目标检测中的深度学习

深度学习的核心是深度神经网络,其依靠庞大的参数和复杂的结构通过自我更新来学习输入和输出的映射关系。其中卷积神经网络因其强大的特征学习和图像理解能力,成为目标检测特征提取的核心结构。除了常用的卷积神经网络,循环神经网络(Recurrent Neural Network,RNN),自编码器(AutoEncoder, AE),生成对抗网络(Generative Adversarial Network,GAN)等在目标检测中均有重要的应用。RNN可以将上一时刻隐藏层的信息输入至下一时刻,从而有效整合上下文信息。RNN一个典型的结构为门控制循环神经元(Gated Recurrent Units,GRU),通过设计门结构来抑制信息的流失。在CNN结构中加入GRU结构15,可以抑制无用信息,提取更丰富的有效信息,以增强CNN的特征学习能力。AE是一种无监督学习方法,通过编码和解码操作进行数据降维或特征学习。AE的变形有堆叠自动编码(Stacked AtuoEncoder,SAE)、变分自动编码(Variational AtuoEncoder,VAE)等,这些在高维度数据处理中有重要的应用16-17。GAN也是一种无监督学习技术,通过一个生成器和一个判别器相互对抗,生成和真实图像相近的结果。在遥感图像目标检测中,GAN可以用来生成更多的训练样本18

深度学习因其强大的特征学习能力和泛化能力,已被广泛应用于遥感图像目标检测领域。然而,遥感图像目标具有多尺度、多旋转角度、背景复杂等特点,传统的基于深度学习的目标检测方法难以获得较理想结果。目前很多研究针对遥感图像目标检测面临的问题,借助典型目标检测模型的优势,构建适用于遥感图像的目标检测模型。

本节基于遥感图像目标检测的难点,总结了深度学习在遥感图像目标检测领域的技术发展及其典型应用。

2.1 遥感图像目标检测技术发展

2.1.1 实现尺度不变性的多尺度特征融合

遥感图像目标检测任务一般是在大尺度图像中进行多目标检测,这些目标尺寸差别较大,尤其仅几十或几百像素的小目标很难学习到丰富的特征表达。这就需要目标检测模型在多目标多尺度变化下仍然具有较好的识别能力,保持尺度不变性。

目标检测模型主要是利用卷积神经网络提取的最后一层特征进行分类和定位,但是多层特征提取会导致最后一层包含的小目标信息较少,导致对小目标的检测精度很低低层的卷积特征层包含更多的纹理、颜色、结构等细节信息,高层卷积特征层具有更强的语义特征。充分利用多尺度特征图不仅可以实现小目标检测,更有利于目标的特征学习。

多尺度目标检测大多通过构建多尺度特征金字塔的方法,融合低层的高分辨率信息和高层的语义信息,以提高小目标检测精度。多尺度特征金字塔一般有两种结构:一个是自下而上进行特征融合,将低层特征和高层特征的反卷积输出进行融合;另一个是自上而下进行特征融合,将高层特征上采样与低层特征进行融合。

自下而上的特征融合结构如图1所示,融合低层特征和高层特征的反卷积输出,获得更丰富的特征表达。Dong等19和Zhu等20都构建了自下而上的网络,不同于特征金字塔整合主干网络的所有特征层,而是融合较低层和高层语义信息,有效提高了小目标的表征能力。

图1

图1   自下而上特征融合

Fig.1   Bottom-up feature fusion


自上而下的特征融合如图2所示,类似特征金字塔网络(Feature Pyramid Network,FPN)结构,自上而下将不同尺度的特征层分别与上一级高层特征上采样的结果融合,最终构成多级特征金字塔,每一层对应不同尺度的目标特征。Yang等21-24基于卷积神经网络构建特征金字塔进行特征融合,提高了小目标检测精度。在特征金字塔基础上,Qiu等25在每一层加入一个gate fusion模块,通过控制不同尺度特征信息流,来选择有效特征以抑制不相关特征。Cheng等26在FPN的基础上,提出了一种新的特征融合策略,通过融合跨尺度特征信息,以实现多尺度目标检测。

图2

图2   自上而下特征融合

Fig2   Top-down feature fusion


实现多层特征表达的主要目的是增强模型对多尺度目标特征的描述能力。可以通过构建多尺度特征金字塔,也可以基于区域建议网络(Region Proposal Network,RPN)构建多尺度建议框28,即在两个卷积层上分别构建RPN。构建多尺度的建议框可以针对不同大小的目标设计不同的预设包围框,以生成不同尺度的建议区域,这种方法较直接预设多尺寸包围框更具有针对性。

表1详细对比了多尺度目标检测方法。构建多尺度特征金字塔不仅可以解决小目标检测问题,还融合了更多的图像信息从而更利于模型特征学习。目前,构建多尺度特征金字塔并结合一些优化结构进行目标检测的方法已成为一个趋势,可以更有效地提高遥感图像目标检测精度。

表1   实现尺度不变性的目标检测方法

Table 1  The object detection methods of scale invariance

文献方法特点
Zhu等[20],2019自下而上融合受文献[27]启发,提取不同卷积层(conv3,conv4,conv5)候选区域对应的特征向量,经过兴趣特征池化层(ROI Pooling)、L2归一化,以促进多尺度特征融合
Dong等[19],2020自下而上融合将进行膨胀扩张的卷积神经网络分支(conv4)和顶层卷积层的反卷积输出(conv5)融合,以有效利用高层语义信息
Yang等[21],2018自上而下融合在ResNet网络基础上构建了5层特征金字塔
Zhu等[22],2019自上而下融合在密集网络DenseNet上构建了3层特征金字塔网络以获取小目标特征
Zhuang等[23],2019自上而下融合在Darknet-53网络基础上构建了3层特征金字塔
Zhang等[24],2019自上而下融合构建了一种多尺度区域建议网络和多尺度目标检测网络,同时,提出了多尺度训练策略(使用基于斑块的多尺度训练数据以及使用多尺寸的图像进行训练)并进行消融实验
Qiu等[25],2019自上而下融合在特征金字塔基础上加入一个门融合(gate fusion)模块,使得模型可以选择性地融合CNN不同尺度特征
Cheng等[26],2020自上而下以及跨尺度融合在构建FPN的基础上,提出了一种跨尺度特征融合策略,对每个特征尺度进行特征融合和特征增强

新窗口打开| 下载CSV


2.1.2 实现旋转不变性的旋转感兴趣区

对任意旋转角度的目标具备识别能力,以实现旋转不变性一直是目标检测领域的重要课题。遥感图像目标,如飞机、船舶等,目标比较狭长,一般呈现多种旋转角度,这就需要模型对任意旋转角度的目标具备较强的识别能力。当旋转目标之间排列紧密的情况下,仅使用最小矩形包围框标记样本,会增加无用的背景信息影响模型的判断,从而无法准确检测每个目标的位置。

为了有效分辨目标旋转前后的特征,Cheng等29提出在CNN结构的基础上加入一个新的全连接层,通过引入正则化约束条件来学习训练样本的旋转映射。或者可以通过加入旋转不变正则化和Fisher判别正则化来增强CNN的特征表达,以实现目标检测模型的旋转不变性30

近几年,很多研究提出使用旋转包围框标记样本,在目标包围框参数中加入一个旋转角度α,以实现目标的旋转不变性检测2131-34,如图3所示。同时,通过设计自适应的感兴趣区(Region of Interest,ROI)池化层,以提取建议区域任意方向的有效特征2132-34,如图4所示。Yu等34同时设计了基于定向锚定的锚框生成子网络,其包含3个分支:位置预测分支通过生成概率图表示每个目标存在的概率;形状预测分支生成3个映射(宽度、高度和方向),预测与位置相关的锚点形状;特征自适应分支根据锚点形状对特征图进行校正。

图3

图3   加入旋转角度的包围框

Fig.3   The bounding boxes with rotation angle


图4

图4   自适应旋转ROI

Fig.4   Adaptive rotated ROI


表2列举了不同的旋转目标检测方法。在样本有限的情况下,针对多种旋转角度的目标,设计旋转包围框,构建旋转感兴趣区,优化包围框筛选机制,可以训练识别多旋转角度下的目标特征的模型,避免目标密集排列造成特征学习上的干扰。这是目前使用较多的实现旋转不变性的目标检测方法。

表2   实现旋转不变性的目标检测方法

Table 2  The object detection methods of rotation invariance

文献方法特点
Cheng等[29],2016旋转不变特征层在AlexNet网络中加入一个旋转不变层,通过正则化约束项优化目标函数,使旋转前后的训练样本具有相似特征,从而实现旋转不变性
Cheng等[30],2019旋转不变特征层和Fisher判别层在通用的目标检测模型基础上,加入旋转不变正则化和Fisher判别正则化以解决目标旋转、类内多样性和类间相似度等问题
Tang等[31],2017导向矩形框对包围框的偏移量加入一个角度参数,得到,通过默认包围框以及偏移量得到具有方向的矩形框
Zhang等[32],2018导向矩形框在包围框参数中加入角度参数来预设锚点,得到五元组,并采用R2oI池化层进行最大池化操作
Yang等[21],2018导向矩形框构建任意旋转矩形,并提出自适应的ROI Align结构自动过滤因旋转框造成的ROI噪声
Dong等[33],2020导向矩形框构建任意旋转矩形,并设计旋转的ROI pooling进行最大池化
Yu等[34],2020导向矩形框构建旋转矩形,设计导向锚点子网络,并构建旋转ROI pooling进行最大池化

新窗口打开| 下载CSV


2.1.3 解决复杂背景干扰的上下文信息提取

遥感图像目标检测的一个难点在于目标背景过于复杂,且前景和背景不容易分离。大场景的遥感图像中往往包含多种地物,目标易受各类相似地物的颜色、纹理、形状等特征的干扰。同时由于遥感图像同类地物会呈现不同的特征,在进行目标检测时很容易产生误检。

上下文信息(Contextual Information)通常被理解为图像中可察觉并影响目标检测结果的有效信息,对计算机视觉任务起着至关重要的作用35-36。人眼在观察图像时,可以快速的获得目标区域,聚焦于该区域以获取更多有效细节,同时忽略其它无用信息。计算机视觉中的上下文信息与人类的视觉注意机制相似,其目的是从大量信息中为当前任务选择较关键的信息。目标对象通常与周围环境相关联,嵌入到周围环境的目标构成典型的上下文信息。研究如何提取目标的上下文信息,探究目标与背景之间的约束关系,可以更有利于目标的特征学习,这在目标检测中具有突出优势。

实现复杂背景下的目标检测,可以通过提取目标的上下文信息,解读图像局部和全局的视觉信息,从而增强模型对目标的识别能力。目标的上下文信息范围如图5所示。很多研究者通过挖掘一定范围的ROI上下文局部信息,将ROI及上下文信息特征进行融合37-39,亦或基于上下文交互,探索目标和场景之间的相关性,聚焦更丰富的信息区域,抑制无效信息40

图5

图5   上下文信息提取

(红色框为目标信息范围,蓝色框为上下文信息范围)

Fig.5   Context information extraction


近年来,很多研究在卷积神经网络中引入注意力模块,联合空间和通道的相关性来进行特征建模。Chen等41提出了一种并发注意力结构CBA,采用两个SE(Squeeze-and-Excitation)42模块分别提取通道和全局的信息。Pang等43构建了一个特征金字塔池化层作为全局注意力模块,其与特征提取网络相连接,可以融合不同尺度的特征,以获取更丰富的上下文信息,使得检测器更容易分辨较小目标。李红艳等44在CNN模型中引入注意力机制,同时改进了非极大抑制(Non-Maximum Suppression, NMS)算法来解决遥感图像复杂背景、小目标检测等问题。

表3列举了不同的上下文信息提取方法。在遥感图像训练样本有限的情况下,提取目标的上下文信息,或者引入注意力机制,学习目标与场景之间的关系,可以降低目标特征的不确定性,有效分离前景和背景,实现精准的图像解译,这是目前遥感图像目标检测领域研究的热点之一。

表3   解决复杂目标信息的目标检测方法

Table 3  The object detection methods of complex information

文献方法特点
Li等[37],2018提取局部上下文特征构建了一种基于混合限制玻尔兹曼机的双通道框架,融合了局部和上下文特征(分别提取原始建议框1倍和1.5倍特征)
Ren等[38],2018提取上下文信息将提取的上下文区域和RPN产生的建议区域分别经过ROI pooling层,之后连接两部分向量用于预测
Zhang等[40],2019提取全局上下文信息及构建注意力模块设计了一种全局上下文敏感网络,GCNet,来学习全局场景语义;提出了空间感知模块,以关注图像上信息更丰富的区域
Gong等[39],2020提取局部上下文信息对每个ROI挖掘一个自适应的上下文ROI提取上下文特征(定义3倍ROI区域为有效的上下文区域)
Chen等[41],2018注意力模块提出了一种两层注意力机制模块,结合了局部和全局信息
Pang等[43],2019注意力模块基于特征金字塔池化构建了一种全局注意力模块
李红艳等[44],2019注意力模块使用结合空间和通道的注意力机制模块CBAM

新窗口打开| 下载CSV


2.1.4 解决样本量少的弱监督学习

基于深度学习的目标检测方法需要大量样本进行训练,而获取大量的样本需要很高的人工成本和时间成本。现有研究大多是基于迁移学习45-47,将基于自然图像的预训练模型进行微调训练后,用于遥感图像目标检测。然而,遥感图像中的目标往往拍摄视角单一,尺度变化大,且所处的背景环境复杂,使得目标的特征表达与自然图像存在较大的差异。因此,仅依靠迁移学习方法的遥感图像目标检测可能得不到较好的检测结果。

数据增广也是解决样本量少的一种通用方法,通过几何变换、色彩抖动、高斯噪声等方法扩充训练数据集,丰富数据多样性,以增强模型的泛化能力。也有研究者提出使用生成对抗机(Generative Adversarial Network,GAN)的方法来生成多样的训练样本,用于目标检测18。但是,该方法没有从根本上改善模型对多样化目标的处理能力。

弱监督学习可以使用图像级标注进行迭代学习来扩充训练样本,从而不断提高训练样本质量,大大降低人工标注成本。此外,弱监督学习还可以使用每次训练得到的置信度高、易与正样本混淆且在视觉上和正样本相似的负样本对模型进行迭代训练,有效抑制背景,增强模型的学习能力4548-50

表4列举了解决样本量少的目标检测方法。弱监督学习在一定程度上可以减少人工标记样本的成本,但由于缺少足够的训练样本或与目标相关的信息,其检测精度还需要进一步提高。基于弱监督学习的遥感图像目标检测还需要更深入的研究,未来需要构建更为鲁棒的弱监督学习网络,或者与监督学习相结合,实现弱监督协作学习。

表4   解决样本量少的目标检测方法

Table 4  The object detection methods of limited samples

文献方法特点
Zhou等[45],2016;Zhong等[46],2018;Dong等[47],2019迁移学习将在大规模自然图像数据集上的训练模型用于遥感图像目标检测,并进行训练微调
Zhu等[18],2020数据增广用生成对抗网络GAN产生新的数据集来训练模型
Han等[48],2015弱监督学习提出了一种基于贝叶斯原理的弱监督学习框架,对弱标注的样本进行训练,通过迭代更新正样本集标签
Zhang等[49],2015弱监督学习通过基于显著性自适应分割和负挖掘得到初始训练样本,然后通过迭代训练逐步细化训练样本
Zhou等[45],2016弱监督学习提出了一种负样本自举的弱监督目标检测框架,基于显著性的自适应分割方法收集初始正样本,通过生成最可能的正样本和视觉上与正样本最相关的负样本来初始化训练样本,然后使用这些样本迭代训练检测器
Zhang等[50],2016弱监督学习首先初始化训练样本,其次通过挖掘的负样本、标记样本以及辅助数据进行迭代训练,更新训练样本

新窗口打开| 下载CSV


2.1.5 多波段遥感图像目标检测

目前大多数遥感图像目标检测任务主要针对光学遥感图像,一般包含RGB 3个波段。遥感数据的不同波段包含了丰富的地物信息,不同地物对不同的光谱波长具有不同的吸收率和反射率,以此可以对地物进行有效区分。多波段图像在地物识别上较RGB图像更具优势,因此,如何利用遥感图像多波段信息进行特征学习,也是遥感图像目标检测的研究重点。不同文献的高光谱目标检测方法对比见表5

表5   高光谱图像目标检测方法

Table 5  The object detection methods of hyperspectral images

文献方法特点
Li等[51],2017CNN从训练样本中选择像素对来训练CNN,用训练好的CNN衡量测试像素和周围环境的相似度,并对这些相似度值进行平均作为最终测试输出
Cheng等[52],2018CNN使用CNN来提取高光谱图像深层特征,同时提出了一种基于度量学习的框架来学习判别频谱空间特征,最终在SVM中嵌入一个度量学习正则化项以实现高光谱图像分类
Zhou等[16],2019堆叠自动编码器提出了一个高光谱图像分类框架CDSAE,利用局部Fisher判别正则化和多样性正则化来训练模型
Xie等[17],2020光谱正则化无监督网络基于AE和VAE构建了光谱正则化无监督网络,证明了其在目标检测上表现更好

新窗口打开| 下载CSV


高光谱图像光谱分辨率高,光谱信息丰富,每个像素都呈现连续的光谱曲线,这些光谱信息可以反映地物之间的细微差异,像素可以表达目标的物理属性。相比于可见光、SAR等图像,信息丰富的高光谱图像在遥感图像目标检测中具有突出优势。深度学习模型具备较强的特征学习能力,可以高效地用于海量数据的处理。用深度学习模型充分挖掘高光谱图像的光谱信息和空间信息,可以实现对高光谱图像目标的精准检测。Li等51通过利用同类目标像素对之间的相似度以及不同类目标像素之间的差异训练CNN,以挖掘高光谱图像像素信息来进行类别检测。Cheng等52利用CNN提取高光谱图像空间特征,并在SVM中嵌入一个度量学习正则化项以学习高光谱图像的光谱和空间特征。Zhou等16在堆叠自动编码(Stacked Autoencoder, SAE)的每个隐藏层中加入局部Fisher判别正则化项和多样性正则化项,用于学习低维特征表达,之后用这两种正则化来联合训练特征提取器和分类器,以实现高光谱图像分类。鉴于样本有限,Xie等17研究发现无监督学习在高光谱图像目标检测上较监督学习表现更好,相比于自动编码(Auto Encoder, AE)和变分编码(Variational Auto Encoder, VAE)更具优势。

高光谱图像具有庞大而丰富的光谱信息,然而,很多情况下高光谱图像中同类地物光谱差别大,不同类之间具有光谱相似性16。此外,高光谱图像的波段具有强相关性,易造成大量的信息冗余。高维度特征和高冗余信息都对高光谱图像目标检测模型提出更高要求。深度学习可以为高光谱图像信息提取提供强大的技术支撑,但由于神经网络参数众多以及高光谱图像标记样本成本高等问题,基于深度学习的高光谱图像目标检测仍面临巨大挑战。因此,基于深度学习的高光谱图像目标检测方法还需进一步深入研究。

合成孔径雷达(SAR)是一种主动式微波雷达成像系统,具有全天时全天候检测特点,不仅可以穿透地表获取被掩盖的目标,还可以得到精确的目标位置,在机场管理、海洋、农业以及自然灾害实时监测等方面具有重要应用。随着深度学习技术大力发展,深度卷积网络在图像识别和目标检测中表现优越,基于深度学习的SAR图像目标检测研究成果越来越多。SAR图像目标检测对象大多数为船舶53-60、机场61等,这类目标在SAR图像中有较强的散射特性,具有明显的视觉特征,更易于识别。针对SAR图像的目标检测方法对比见表6。利用卷积神经网络学习高分辨率SAR图像中目标特征,以实现船舶、机场等目标的自动检测,这在遥感目标检测领域中具有广阔的应用前景。

表6   SAR图像目标检测方法

Table 6  The object detection methods of SAR images

文献方法特点
Ding等[53],2016CNN结合卷积神经网络和三种数据增广方法,实现对SAR图像目标自动识别
Liu等[54],2017CNN提出了基于海陆分割的CNN框架,结合CNN、显著性计算和角点特性实现SAR图像船舶检测
Wang等[55],2018SSD结合迁移学习和SSD模型提高SAR图像检测精度,降低误报率
Zhao等[56],2018耦合CNN以耦合CNN作为特征提取网络,提出了基于脉冲余弦变换的视觉注意力方法,从频域角度进行船舶识别
Fan等[57],2019分割模型基于全卷积网络提出了一种针对极化SAR图像的船舶分割模型,有效减少海杂波和SAR图像模糊影响
Lin等[58],2019注意力机制结合SENet和FasterR-CNN减少船舶误检、漏检情况
Chang等[59],2019YOLOv2基于YOLOv2提出了一种层数更少的新框架,更好地减少计算量和模型检测时间
Wei等[60],2020高分辨率金字塔网络提出了一种高分辨率特征金字塔模型用于提取SAR图像中高层和低层特征,并采用缓和非极大抑制方法(Soft-NMS)提高密集船舶目标检测性能
Chen等[61],2020双注意力机制提出了一种多尺度双注意目标检测网络用于机场提取

新窗口打开| 下载CSV


2.2 遥感图像典型目标检测应用

本节总结了深度学习方法在单目标检测如飞机、船舶和车辆等,以及复杂目标检测如机场等的研究进展,这类典型的目标检测研究具有重要的应用价值。

目标检测精度评价标准一般为平均精确(Average Precision,AP),船舶SAR图像目标检测多以F1分数为衡量指标:

AP=01precision smooth(recall)d(recall)     
F1=2*precision×recallprecision+recall      

其中:Precision=TPTP+FPRecall=TPTP+FN;TP、P和FN分别为正样本预测为正样本的数量,负样本预测为正样本数量和正样本预测为负样本的数量。图6为4类目标检测精度的箱形图,包括飞机、船舶(包括SAR图像)、车辆和机场。图6(a)表示以平均精确度为评价标准,4类目标的光学图像检测精度。飞机目标检测的精确度分布一般在94.3%~98.5%之间,船舶目标检测的精确度分布一般在78.6%~97.6%之间,车辆目标检测精确度分布一般在85.5%~93%之间,机场目标检测精确度分布一般在94.2%~97%之间。图6(b)显示了SAR图像船舶目标检测的精度分布,F1分数一般在0.836~0.960 5之间。

图6

图6   各类别精确度分布

Fig.6   Distribution of accuracy for each category


2.2.1 飞机目标检测

飞机作为典型的遥感图像目标,一直是遥感图像目标检测领域中重点研究对象之一。飞机目标检测在机场管理学领域中已得到了广泛应用。然而,在大尺度遥感图像中,受飞机位置、尺寸、角度多样及背景复杂等影响,飞机目标检测要求检测模型具有旋转不变性及尺度不变性,以适应不同角度的飞机目标检测,同时,也需要避免因尺度问题造成类间区分度低等一系列问题。飞机的训练样本大多来源于谷歌地图、国产高分数据及其它的公开数据集,如NWPU VHR-10,多数为机场场景,图像分辨率在0.08~2 m之间。

针对飞机目标检测中的弱小目标表征能力不足等问题,现有研究大多使用多尺度特征融合的方法2062-63,以提高小目标的检测能力。大尺度遥感图像在分割预处理时,容易丢失较小的飞机目标,Chen等64提出了一种端到端的飞机目标检测算法,在输入层前和输出层后分别加入MultiBlock层和MapBlock层,将输入图像调整尺寸为均匀大小,最后将输出的检测结果图映射与输入图尺寸一致。此外,大尺度下小目标特征不突出,容易与非目标类别混淆,通过在卷积网络中加入注意力模块43或者引入空洞残差进行多尺度特征融合65,捕捉目标的上下文信息,从而提高模型的特征表达能力。

部分研究通过构建新的检测框架来解决飞机目标检测中人工标注成本高、缺乏大量优质训练样本等问题。Zhang等50构建了一种基于耦合CNN结构的弱监督学习框架,可以从原始图像中自动挖掘和扩充训练数据集,该方法已用于大尺度图像中的飞机目标检测。Yang等66基于FCN建立了一个鲁棒性的飞机目标检测网络,利用较少样本进行训练,从而避免人工标记样本耗时耗力,并利用多尺度马尔科夫随机域算法提高了定位精度。然而,该方法不能有效利用GPU能力,存在处理速度上较慢等缺点。

2.2.2 船舶目标检测

船舶也是一种典型的遥感图像目标检测对象,在海洋安全和海上交通方面具有重要的应用价值。然而,由于复杂天气环境下目标不清晰、大尺度场景下目标太小以及目标密集等问题,船舶目标检测亦面临着诸多挑战。船舶目标检测使用的训练数据主要有两种:光学遥感图像和SAR图像。光学遥感图像大多来源于谷歌地图、国产GF-2卫星以及其它的公开数据集,如DOTA数据集,包含港口、近海、远海等场景,图像分辨率一般小于2 m。SAR图像大多来源于Sentinel系列卫星、TerraSAR卫星等,空间分辨率一般小于10 m。

船舶目标检测一般包含近海、远海和靠岸等场景。近海及远海的目标检测大多会面临多尺度、小目标模糊以及复杂背景干扰等问题。靠岸场景的目标检测主要存在目标包围框重叠导致的定位精度不高等问题。

针对近海船舶目标检测,Lin等67采用了任务分割方法,将任务划分为两条路径,浅层路径用于精确定位目标,深层路径用于生成注意力图,结合两分支的输出可以得到高召回率和高精度的检测结果。为了解决近海岸小目标船舶检测问题,Kang等68提出了一个结合目标特征和像素的方法,基于Faster R-CNN模型生成建议区并对目标进行分类,对结构模糊的小目标采用恒定虚警率(CFAR)算法进行检测。Zhao等56提出了一种级联共轭卷积模型,将学习空间域的CNN模型与频域视觉注意模型相结合,有效降低了漏检率和虚警率。Lin等58提出了一种基于Squeeze and Excitation(SE)的Faster R-CNN的检测模型提高了SAR图像船舶检测精度。

为了提高在近海和远海场景的高分辨率SAR图像检测精度,Wei等60提出了一个高分辨率特征金字塔结构,充分利用了高分辨率和低分辨率的特征映射。同时利用级联结构提高了检测精度。为实现复杂背景下多目标、多尺度船舶目标检测,Chen等69提出用K-means聚类算法来优化FPN模型。为了实现大尺度场景下的船舶目标检测,Li等70提出了一种高分辨率遥感图像船舶识别方法HSF-Net,在Faster R-CNN模型基础上加入分层选择过滤层(HSF),可以获取更好的多尺度船舶特征。此外,HSF-Net在大尺度光学遥感图像上对静止和运动的船只进行了检测,背景为海洋、岛屿、港口和城市等多场景,图像分辨率为0.3~5 m,最终得到精确率为89.4%,召回率为98.3%。

为了解决靠岸船舶目标检测密集排列、背景复杂等问题,很多研究使用旋转包围框标记船舶样本2132-3371-72,尽可能产生包含更多正样本信息的建议区域,避免复杂背景的干扰,同时这些方法通过构建旋转区域建议网络,来适应不同方向的船舶目标检测。

2.2.3 车辆目标检测

车辆目标检测在交通管理、路网规划、停车场建设等方面具有重要的应用价值。无人机技术的发展提供了更多高分辨率的图像,为车辆目标检测提供了大量有效的数据。然而,由于航空图像中车辆尺度和方向的变化、摄像视场背景复杂以及存在局部遮挡等问题,车辆目标检测任务一直具有挑战性。车辆数据一般来源于航拍无人机数据,分辨率一般小于0.5 m。

航空影像中的车辆具有多尺度、多旋转角度和场景复杂等特点,这使得车辆的检测定位更具挑战性。Deng等73构建了一种基于超特征映射的目标定位框架AVPN,可以有效地提取小目标特征,实时准确生成车辆建议区,此外还设计了车辆属性学习网络来提取车辆位置。Yang等74在Faster R-CNN基础上,构建了一种多视角卷积神经网络Multi-PerNet用于车辆目标检测,通过使用不同尺寸的卷积核提取具有不同感受野的特征图,解决了因缺少目标特征而导致车辆目标检测精度低的问题。Mandal等75构建了一种多尺度残差块结构,以获得低层更详细的目标信息,解决了航拍图像中车辆较小、拥挤等问题,同时提高了检测效率。

为实现车辆目标检测中任意方向建议框的预测,Tang等31提出了一种导向型的车辆目标检测网络Oriented_SSD,通过产生具有方向性的包围框以更准确地提取不同旋转方向的车辆。Yu等76通过对图像进行超像素分割来生成具有意义的斑块,将其输入到卷积胶囊网络中以有效检测不同尺度、方向和遮挡水平的车辆。

2.2.4 机场目标检测

机场是遥感图像地物中一个典型的组合目标,其特征主要包含停机坪、长而直的跑道、停车场、排列整齐的飞机、航站楼等多种地物。不同于自然图像中目标检测,由于目标与背景关联紧密,机场目标检测颇具挑战性。机场目标一般尺寸较大,在光学遥感图像中与背景较易分离,因此,训练数据可以选用中高分辨率的遥感图像。

针对机场目标检测存在的难题,部分研究者设计了硬样本挖掘结构,通过加入负样本训练以增强模型的学习能力77-78,亦或通过优化RPN结构,产生质量更高的建议区以提高检测精度79-80。此外,还可以通过引入先验知识,剔除非地面区域,对道路进行分割以及设置面积及长度阈值来约束机场候选区域81;Li等82提出了一种联合连续学习下的残差块网络模型,结合连续学习构建包含多尺度、多视角的复杂背景条件下的机场数据集,利用差异值法生成锚点,利用连续学习对网络进行权重更新,从而准确、快速地从海量复杂背景下的光学遥感影像中识别出机场。

SAR图像中,机场中的跑道较普通的水泥地面表现更暗,而机场中的建筑物、飞机等具有较强的散射特性,表现更亮,所以基于SAR图像的机场目标检测具备一定的优势61

除了以上总结的4类遥感目标外,深度学习方法还应用于检测其他具有典型特征的遥感图像目标,比如具有地理空间意义的建筑物等,表现为地理现象的海冰、溢油、水华等。深度学习在大数据快速处理方面具有突出优势,因此,在此类目标检测应用中也发挥着重要作用。

城市建筑物信息提取已在数字城市、城市规划、城市灾害等研究领域得到了广泛的应用。通过CNN或者语义分割模型进行特征提取83-84,可以实现建筑物的快速检测。

海冰是高维度地区海水冻结形成的冰,是影响全球气候变化的重要地理现象。目前使用深度学习进行海冰目标检测的研究相对较少,主要利用CNN对遥感图像中海冰进行特征提取,以实现海冰分类85-86。溢油一般指因人类活动等因素而造成石油在海洋运输中产生了泄露。溢油目标检测在渔业、海洋环境保护等方面具有重要意义。相比于传统检测方法,基于深度学习模型的溢油目标检测成本较低,效率更高87-88。水体富营养化会导致藻类大量繁殖,形成水华,这给生态环境和社会经济都带来一定负担。利用深度学习方法可以实现对水华的快速检测及预测89,在生态治理、环境保护等方面有重要作用。

总之,基于深度学习的遥感图像目标检测应用具有广阔空间,结合深度学习模型解决实际遥感图像目标检测问题是未来研究热点之一。

3 遥感图像目标检测公开数据集

近年来,很多研究团队构建了大型遥感图像目标检测数据集,为遥感图像目标检测提供了很好的训练和测试样本。表7对比介绍了几种公开的遥感图像目标检测数据集。

表7   公开的遥感图像目标检测数据集

Table 7  Public available object detection datasets of remote sensing images

数据集名称类 别图像总数实例个数包围框年份
NWPU VHR-10108003 775垂直包围框2014
UCAS-AOD22 42014 596垂直包围框2015
RSOD49766 950垂直包围框2015
HRSC201611 0612 976旋转包围框2016
LEVIR322 00011 000垂直包围框2018
DOTA152 806188 282旋转包围框2018
DIOR2023 463192 472垂直包围框2020
SSDD11 1602 456垂直包围框2017
SAR-Ship-Dataset143 81943 819垂直包围框2019
HRSID15 60416 951垂直包围框2020

新窗口打开| 下载CSV


NWPU VHR-10 dataset90是西北工业大学标注的航天遥感目标检测数据集,包含10类目标:飞机、棒球场、篮球场、桥梁、港口、田径场、船舶、油罐、网球场和车辆。该数据集包含了800张图像,有650张目标图像,150张背景图像,其中,包含715张空间分辨率为0.08~2 m 的RGB图像,85张分辨率为0.08 m的锐化彩色红外图像。NWPU VHR-10数据集是近年来使用率较高的高分辨率目标检测数据集。

UCAS-AOD91是中国科学院大学模式识别实验室标注的数据集,2014年首次发布,包括飞机和汽车2类目标。其中包含600张飞机图像,共3 591个实例;310张汽车图像,共4 475个实例;492张反例图像。2015年,实验室对数据集进行补充,最终得到1 000张飞机图像,共7 482个实例;510张汽车图像,共7 114个实例;910张反例图像。

RSOD92是武汉大学团队标注的谷歌地图和天地图遥感影像数据集,包含4类目标:飞机、操场、立交桥和油桶。其中包含有446张飞机图像,共4 993个实例;189张操场图像,共191个实例;176张立交桥图像,共180个实例;165张油罐图像,共1 589个实例。

HRSC201693是中科院自动化所是提出的船舶检测数据集,数据主要来源于谷歌地图上6个著名的港口。该数据集包含了1 061张图像,2 976个实例,其中,训练集,验证集和测试集占比约为2∶1∶2,图像尺寸最小为300×300,最大为1 500×900,图像分辨率为0.4~2 m。数据集中的船舶目标有旋转、缩放等多种变换,可以训练更具泛化能力的模型,是比较常用的船舶目标检测公开数据集。

LEVIR94是北京航空航天大学史振威团队提出的高分辨率数据集,包含3类目标:飞机、轮船(包括近海和离岸轮船)和油罐。该数据集包含了来源于谷歌地图的22 000张图像,尺寸大小为800×600,其中,飞机4 724架,轮船3 025艘,油罐3 279个,图像分辨率为0.2~1 m。

DOTA95是武汉大学遥感国家重点实验室夏桂松和华中科技大学电子信息与通信学院白翔联合提出的数据集,包含15类目标:飞机、船舶、储罐、棒球场、网球场、游泳池、田径场、港口、桥梁、大型车辆、小型车辆、直升机、环岛、足球场和篮球场。该数据集包含了2 806张航空影像,图像尺寸最小为800×800,最大为4 000×4 000,一共188 282个实例,标记方法采用不规则四边形。由于数据来自于不同的传感器,图像具有多种分辨率。

DIOR14是西北工业大学韩军伟课题组提出的主要用于光学遥感图像目标检测的数据集,包含20类目标:飞机、机场、棒球场、篮球场、立交桥、桥梁、烟囱、大坝、高速公路服务区、高速公路收费站、高尔夫球场、地面田径场、港口、船舶、体育场、油罐、网球场、火车站、车辆和风车。该数据集共有23 463张遥感图像和192 472个实例,训练集,验证集和测试集占比为1∶1∶2,图像尺寸为800×800,空间分辨率为0.5~30 m。该数据集使用了12种检测器对其进行测试,其中使用基于ResNet-101的PANet方法和RetinaNet检测结果最好,准确度高达66.1%。DIOR数据集在类别和数量上都是现有遥感图像目标检测数据集中最庞大的,其遥感卫星图像是在不同天气、季节和成像条件下采集自多个国家,拥有不同空间分辨率和不同尺度场景,且选择的样本具有类间相似性和类内多样性,适用于地球观测和评估各种深度学习方法。

合成孔径雷达(SAR)图像具有全天时全天候检测特点,且不受天气等因素影响,可以透过地表获取被掩盖的目标,同时可以获得精确的目标位置,在船舶目标检测中具有重要的应用价值。近些年来,许多研究团队逐渐公开了SAR图像目标检测数据集,大大推动了船舶目标检测的发展。

SSDD96数据集是海军航空航天大学提出的第一个专门用于SAR图像船舶目标检测数据集,图像主要来源于RadarSat-2、TerraSAR-X和Sentinel-1传感器。该数据集包含1 160张图像,共2 456个船舶实例。训练集,验证集,测试集的占比为7∶2∶1,图像大小为500×500,分辨率为1~15 m。之后在SSDD基础上,还提出了SSDD+数据集,该数据集使用旋转包围框来标记船舶,以实现对目标的方向估计。

SAR-Ship97数据集是中国科学院空天信息创新研究院王超团队公开的船舶目标检测数据集,该数据集主要来源于高分三号和Sentinel-1SAR 图像,包含了43 819张船舶切片,其中,高分三号图像分辨率为3 m、5 m、8 m、25 m和10 m,分别对应UFS、FSI、QPSI、QPSII和FSII成像模式,Sentinel-1图像分辨率为1.7×4.3~3.6×4.9、20×22,分别对应S3条带图(SM)和IW成像模式。该数据集的船舶切片及船舶数目较多,无需进行数据增广就可以开展模型训练,且可以在无需海陆分割、无需区分成像模式的情况下实现快速船舶目标检测。

HRSID98数据集是电子科技大学的苏浩团队于2020年发布的,用于船舶目标检测、语义分割和实例分割等任务,数据集来源于99张Sentinel-1 B卫星图像,36张TerraSAR-X图像和1张TanDEM-X图像。该数据集包含了5 604张SAR图像,共16 951个实例,图像大小为800×800,图像分辨率为0.5 m、1 m、3 m。该数据集使用了8个最先进的检测器对数据集进行检测和分割实验,并在大尺寸SAR图像上检验训练模型的迁移能力,最终得到近海船舶目标检测精度在41.3%~61.8%之间,离岸船舶目标检测精度在79.6%~87.1%之间,船舶分割精度在53.8%~55.4%之间。HRSID包含不同分辨率、极化、海况、海域和沿海港口的SAR图像,基于HRSID训练的模型可以在大尺度中进行船舶目标检测。

4 结 语

结合遥感图像目标检测中存在的诸多问题和面临的挑战,总结了近几年来基于深度学习的遥感图像目标检测技术的发展与应用。针对典型地物目标的检测难度,总结了目标检测方法的发展现状,并对遥感图像目标检测的公开数据集进行了对比分析。

目前,遥感图像目标检测数据集大多来源于高分辨率图像,包含了较丰富的地物信息和细节特征。随着对地观测技术的发展,遥感图像分辨率会得到进一步提升,因此基于深度学习的遥感图像目标检测具有巨大潜力,应用前景十分广阔。尽管,目前基于深度学习的遥感图像目标检测取得了一定的研究成果,但是遥感图像信息提取及实际应用依然面临巨大挑战,未来遥感图像目标检测有很大的发展空间:

(1)在样本有限的情况下获取更丰富的图像信息。遥感图像目标多样、目标尺度变化较大、背景复杂,同时样本制作成本较高,这使得遥感图像目标检测任务面临巨大挑战。如何获得更丰富的图像语义信息,以提高模型的特征学习能力一直是遥感图像目标检测领域的研究重点。在算法优化上,研究者可以设计更为鲁棒的特征提取网络,学习目标与场景之间的关系,从而实现更好的特征建模;或者引入遥感先验知识、结合人工设计特征的方法来提高模型的特征表达能力。

(2)研究组合型目标检测。以往的遥感图像目标检测研究主要关注飞机、船舶、车辆等单目标,这些目标具有固定边界且与背景环境较易分离。然而,遥感图像中很多地物为多个目标的组合体,比如机场、火电厂、学校、垃圾处理厂等。组合型目标边界不固定,内部包含多个独立的、关系不确定的单个目标。因此,组合型目标的特征复杂多样,这就需要模型具有更强的特征表达能力,可以对场景语义进行更好地建模,有效区分前景和背景。目前,有研究99-101提出了针对组合目标的检测算法,但对于组合目标的研究仍不充分。如何对复杂场景中的组合目标进行更好的语义建模,实现大场景下的遥感图像组合目标检测,并通过检测结果挖掘组合目标对社会经济发展带来的潜在影响,是未来遥感图像解译的一个重要研究内容。

(3)研究细粒度目标检测。细粒度目标检测即对同一类中的不同子类进行识别。如船舶目标检测中,对渔船、客船等子类别进行识别。这在遥感图像信息提取领域有着广泛的应用场景,也是未来一个重要的研究方向。目标子类具有类内差异性和类间相似性的问题,这需要计算机在特征学习上更加精细化。为了实现细粒度目标检测,研究者可以考虑以下3个方面:①使用强监督学习,对目标关键特征进行额外标记;②通过更强的注意力机制进行特征学习;③基于网络集成的方法,使用多个神经网络提高细粒度目标检测模型的性能。

(4)研究深度学习模型的可解释性。深度学习模型的核心是神经网络,由于其参数众多,构建一个适用于遥感图像目标检测的模型,依赖于研究者专业的遥感知识、丰富的经验以及创造性的灵感。为了设计更令人信服的网络,就需要不断提高模型的可解释性。研究者可以考虑对神经网络的知识表达进行可视化,以更好地理解神经网络是如何学习遥感知识的;或者将神经网络内部决策结构拆分为可解释性的模块,对神经网络的中间特征进行明确的语义表达,了解神经网络是如何学习知识从而做出决策的。

(5)研究自动生成最优网络的算法。神经网络是一个参数庞大的架构。目前,遥感图像目标检测网络较依赖于先验知识和人工设计,如何利用深度学习的方法自我迭代优化超参数,通过自我学习来选择最优网络也是未来的一个研究热点。研究者可以考虑利用深度强化学习的方法,通过神经网络搜索技术102,在给定的搜索空间中,通过不断试错和奖励反馈来选择最优的模型。

参考文献

Zhang Bing.

Remotely sensed Big Data Era and intelligent information extraction

[J]. Geomatics and Information Science of Wuhan University, 20184312): 1861-1871.

[本文引用: 1]

张兵

遥感大数据时代与智能信息提取

[J].武汉大学学报(信息科学版),20184312): 1861-1871.

[本文引用: 1]

Cheng GHan J.

A survey on object detection in optical remote sensing images

[J]. ISPRS Journal of Photogrammetry and Remote Sensing,201611711-28. DOI:10.1016/j.isprs-jprs.2016.03.014 .

[本文引用: 1]

Girshick RDonahue JDarrell Tet al.

Rich feature hierarchies for accurate object detection and semantic Segmentatio

[C]∥2014 IEEE Conference on Computer Vision and Pattern Recognition. DOI:10.1109/CVPR.2014.81 .

[本文引用: 1]

Girshick R.

Fast R-CNN

[C]∥Proceedings of 2015 IEEE In⁃ ternational Conference on Computer Vision. SantiagoIEEE20151440-1448. DOI:10.1109/ICCV.2015.169 .

Dai JLi YHe Ket al.

R-FCN: Object detection via region-based fully convolutional networks

[J/OL].[2020-12-27]. .

URL    

Liu WAnguelov DErhan Det al.

SSD:single shot multibox detector

[M]. Computer Vision-ECCV 2016.Springer International Publishing201621-37. DOI:10.1007/978-3-319-46448-0_2 .

Redmon JDivvala SGirshick Ret al.

You only look once:unified,real-time object detection

[C]∥IEEE Con ference on Computer Vision and Pattern Recognition. IEEE Computer Society2016779-788. DOI:10.1109/CVPR.2016.91 .

Fu C YLiu WRanga Aet al.

DSSD: deconvolutional single shot detector

[J/OL].[2021-04-24]. .

URL    

Lin T YDollár PGirshick Ret al.

Feature pyramid networks for object detection

[J/OL].[2020-12-27]. .

URL    

Redmon JFarhadi A.

YOLO9000: Better, Faster, Stronger

[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE20176517-6525.

Ren SHe KGirshick Ret al.

Faster R-CNN: Towards feal-time object detection with region proposal networks

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017396): 1137-1149. DOI:10.1109/TPAMI.2016.2577031 .

Lin T YGoyal PGirshick Ret al.

Focal loss for dense object detection

[J/OL].[2020-12-27]. .

URL    

Redmon JFarhadi A.

YOLOv3: An incremental improvement

[J/OL].[2020-12-27]..

URL     [本文引用: 1]

Li KWan GCheng Get al.

Object detection in optical remote sensing images: A survey and a new benchmark

[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020159296-307. DOI:10.1016/j.isprsjprs.2019.11.023 .

[本文引用: 2]

Ma WGuo QWu Yet al.

A novel multi-model decision fusion network for object detection in remote sensing images

[J]. Remote Sensing, 2019117): 737. DOI:10.3390/rs11070737 .

[本文引用: 1]

Zhou PHan JCheng Get al.

Learning compact and discriminative stacked autoencoder for hyperspectral image classification

[J]. IEEE Transactions on Geoscience and Remote Sensing,2019577):4823-4833. DOI:10.1109/TGRS. 2019.2893180 .

[本文引用: 4]

Xie WYang JLei Jet al.

SRUN: spectral regularized unsupervised networks for hyperspectral target detection

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020582):1463-1474. DOI:10.1109/TGRS.2019.2947033 .

[本文引用: 3]

Zhu DXia SZhao Jet al.

Diverse sample generation with multi-branch conditional generative adversarial network for remote sensing objects detection

[J]. Neurocomputing, 202038140-51. DOI:10.1016/j.neucom.2019.10.065 .

[本文引用: 3]

Dong ZLin B.

BMF-CNN: An object detection method based on multi-scale feature fusion in VHR remote sensing images

[J].Remote Sensing Letters,2020113):215-224. DOI:10.1080/2150704X.2019.1706007 .

[本文引用: 2]

Zhu MXu YMa Set al.

Effective airplane detection in remote sensing images based on multilayer feature fusion and improved nonmaximal suppression algorithm

[J]. Remote Sensing, 2019119): 1062. DOI:10.3390/rs11091062 .

[本文引用: 3]

Yang XSun HSun Xet al.

Position detection and direction prediction for arbitrary-oriented ships via multitask rotation region convolutional neural network

[J]. IEEE Access, 2018650839-50849. DOI:10.1109/ACCESS.2018. 2869884 .

[本文引用: 6]

Zhu HZhang PWang Let al.

A Multiscale object detection approach for remote sensing images based on MSE-DenseNet and the dynamic anchor assignment

[J]. Remote Sensing Letters,20191010):959-967. DOI:10.1080/2150704X.2019.1633486 .

[本文引用: 1]

Zhuang SWang PJiang Bet al.

A single shot framework with multi-scale feature fusion for geospatial object detection

[J]. Remote Sensing, 2019115): 594. DOI:10.3390/rs11050594 .

[本文引用: 1]

Zhang XZhu KChen Get al.

Geospatial object detection on high resolution remote sensing imagery based on double multi-scale feature Pyramid network

[J]. Remote Sensing, 2019117): 755. DOI:10.3390/rs11070755 .

[本文引用: 2]

Qiu HLi HWu Qet al.

A2RMNet: Adaptively aspect ratio multi-scale network for object detection in remote sensing images

[J].Remote Sensing,20191113):1594. DOI:10.3390/ rs11131594 .

[本文引用: 2]

Cheng GSi YHong Het al.

Cross-scale feature fusion for object detection in optical remote sensing images

[J]. IEEE Geoscience and Remote Sensing Letters[J]. IEEE Geoscience and Remote Sensing Letters, 20201-5. DOI:10.1109/LGRS.2020.2975541 .

[本文引用: 2]

Liu WRabinovich ABerg A C.

ParseNet: Looking wider to see better

[J/OL]. [2020-12-27]. .

URL     [本文引用: 1]

Zhang SHe GChen H Bet al.

Scale adaptive proposal network for object detection in remote sensing images

[J]. IEEE Geoscience and Remote Sensing Letters, 2019166): 864-868. DOI:10.1109/LGRS.2018.2888887 .

[本文引用: 1]

Cheng GZhou PHan J.

Learning rotation-invariant convolutional neural networks for object detection in VHR optical remote sensing images

[J]. IEEE Transactions on Geoscience and Remote Sensing, 20165412): 7405-7415. DOI:10.1109/TGRS.2016.2601622 .

[本文引用: 2]

Cheng GHan JZhou Pet al.

Learning rotation-invariant and fisher discriminative convolutional neural networks for object detection

[J]. IEEE Transactions on Image Processing, 2019281): 265-278. DOI:10.1109/TIP.2018.2867198 .

[本文引用: 2]

Tang TZhou SDeng Zet al.

Arbitrary-oriented vehicle detection in aerial imagery with single convolutional neural networks

[J]. Remote Sensing,2017911):1170. DOI:10.3390/rs9111170 .

[本文引用: 3]

Zhang ZGuo WZhu Set al.

Toward arbitrary-oriented ship detection with rotated region proposal and discrimination networks

[J]. IEEE Geoscience and Remote Sensing Letters, 20181511):1745-1749. DOI:10.1109/LGRS. 2018. 2856921 .

[本文引用: 3]

Dong ZLin B.

Learning a robust CNN-based rotation insensitive model for ship detection in VHR remote sensing images

[J]. International Journal of Remote Sensing, 2020419): 3614-3626. DOI:10.1080/01431161.2019.1706781 .

[本文引用: 2]

Yu YGuan HLi Det al.

Orientation guided anchoring for geospatial object detection from remote sensing imagery

[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 202016067-82. DOI:10.1016/j.isprsjprs.2019.12.001 .

[本文引用: 4]

Mottaghi RChen XLiu Xet al.

The role of context for object detection and semantic segmentation in the wild

[J]. Computer Vision and Pattern Recognition, 2014891-898. DOI: 10.1109/CVPR.2014.119 .

[本文引用: 1]

Szegedy CLiu WJia T Qet al.

Going deeper with convolutions

[C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE20151-9. DOI:10.1109/CVPR.2015.7298594 .

[本文引用: 1]

Li KCheng GBu Set al.

Rotation-insensitive and context-augmented object detection in remote sensing images

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018564):2337-2348. DOI:10.1109/TGRS. 2017. 2778300 .

[本文引用: 2]

Ren YZhu CXiao S.

Small object detection in optical remote sensing images via modified faster R-CNN

[J]. Applied Sciences, 201885): 813. DOI:10.3390/app8050813 .

[本文引用: 1]

Gong YXiao ZTan Xet al.

Context-aware donvolutional neural network for object detection in VHR remote sensing imagery

[J]. IEEE Transactions on Geoscience and Remote Sensing,2020581):34-44. DOI:10.1109/TGRS. 2019. 2930246 .

[本文引用: 2]

Zhang GLu SZhang W.

CAD-Net: A context-aware detection network for objects in remote sensing imagery

[J]. IEEE Transactions on Geoscience and Remote Sensing, 20195712):10015-10024. DOI:10.1109/TGRS. 2019. 2930982 .

[本文引用: 2]

Chen SZhan RZhang J.

Geospatial object detection in remote sensing imagery based on multiscale single-shot detector with activated semantics

[J]. Remote Sensing, 2018106): 820. DOI:10.3390/rs10060820 .

[本文引用: 2]

Hu JShen LSun G.

Squeeze-and-excitation networks

[C]∥IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USAIEEE20187132-7141. DOI:10.1109/CVPR.2018.00745 .

[本文引用: 1]

Pang JLi CShi Jet al.

R2CNN: Fast tiny object detection in large-scale remote sensing images

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019578): 5512-5524. DOI:10.1109/TGRS.2019.2899955 .

[本文引用: 3]

Li H YLi C GAn J Bet al.

Attention mechanism improves cnn remote sensing image object detection

[J]. Journal of Image and Graphics, 2019248): 1400-1408.

[本文引用: 2]

李红艳李春庚安居白.

注意力机制改进卷积神经网络的遥感图像目标检测

[J]. 中国图像图形学报, 2019248): 1400-1408.

[本文引用: 2]

Zhou PCheng GLiu Zet al.

Weakly supervised target detection in remote sensing images based on transferred deep features and negative bootstrapping

[J]. Multidimensional Systems and Signal Processing, 2016274): 925-944. DOI:10.1007/s11045-015-0370-3 .

[本文引用: 4]

Zhong YHan XZhang L.

Multi-class geospatial object detection based on a position-sensitive balancing framework for high spatial resolution remote sensing imagery

[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2018138281-294. DOI:10.1016/j.isprsjprs.2018.02.014 .

[本文引用: 1]

Dong RXu DZhao Jet al.

Sig-NMS-based faster R-CNN combining transfer learning for small target detection in VHR optical remote sensing imagery

[J]. IEEE Transactions on Geoscience and Remote Sensing, 20195711): 8534-8545. DOI:10.1109/TGRS.2019.2921396 .

[本文引用: 2]

Han JZhang DCheng Get al.

Object detection in optical remote sensing images based on weakly supervised learning and high-level feature learning

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015536): 3325-3337. DOI:10.1109/TGRS.2014.2374218 .

[本文引用: 2]

Zhou PZhang DCheng Get al.

Weakly supervised learning for target detection in remote sensing images

[C]∥Proceedings - 2015 IEEE International Conference on Multimedia Big DataBigMM 2015. IEEE2015318-323. DOI:10.1109/BigMM.2015.13 .

[本文引用: 1]

Zhang FDu BZhang Let al.

Weakly supervised learning based on coupled convolutional neural networks for aircraft detection

[J]. IEEE Transactions on Geoscience and Remote Sensing,2016549):5553-5563. DOI:10.1109/TGRS. 2016. 2569141 .

[本文引用: 3]

Li WWu GDu Q.

Transferred deep learning for anomaly detection in hyperspectral imagery

[J]. IEEE Geoscience and Remote Sensing Letters, 2017145): 597-601. DOI:10.1109/LGRS.2017.2657818 .

[本文引用: 2]

Cheng GLi ZHan Jet al.

Exploring hierarchical convolutional features for hyperspectral image classification

[J]. IEEE Transactions on Geoscience and Remote Sensing, 20185611): 6712-6722. DOI:10.1109/TGRS.2018.2841823 .

[本文引用: 2]

Ding JChen BLiu Het al.

Convolutional neural network with data augmentation for SAR target recognition

[J]. IEEE Geoscience and Remote Sensing Letters, 2016133): 364-368. DOI:10.1109/LGRS.2015.2513754 .

[本文引用: 2]

Liu YZhang MXu Pet al.

SAR Ship Detection using sea-land segmentation-based donvolutional neural network

[C]∥2017 International Workshop on Remote Sensing with Intelligent Processing (RSIP). IEEE20171-4. DOI:10.1109/RSIP.2017.7958806 .

[本文引用: 1]

Wang YWang CZhang H.

Combining a single shot multibox detector with transfer learning for ship detection using sentinel-1 SAR images

[J]. Remote Sensing Letters, 201898): 780-788. DOI:10.1080/2150704X.2018.1475770 .

[本文引用: 1]

Zhao JZhang ZYu Wet al.

A cascade coupled convolutional neural network guided visual attention method for ship detection from SAR images

[J]. IEEE Access, 2018650693-50708. DOI:10.1109/ACCESS.2018.2869289 .

[本文引用: 2]

Fan QChen FCheng Met al.

Ship detection using a fully convolutional network with compact polarimetric SAR images

[J]. Remote Sensing, 20191118). DOI:10.3390/rs 11182171 .

[本文引用: 1]

Lin ZJi KLeng Xet al.

Squeeze and excitation rank faster R-CNN for ship detection in SAR images

[J]. IEEE Geoscience and Remote Sensing Letters, 2019165): 751-755. DOI:10.1109/LGRS.2018.2882551 .

[本文引用: 2]

Liu NCao ZCui Zet al.

Multi-scale proposal generation for ship detection in SAR images

[J]. Remote Sensing, 2019115). DOI:10.3390/rs11050526 .

[本文引用: 1]

Wei SSu HMing Jet al.

Precise and robust ship detection for high-resolution SAR imagery rased on HR-SDNet

[J].Remote Sensing,2020121):167. DOI:10.3390/rs12010167 .

[本文引用: 3]

Chen LTan SPan Zet al.

A New framework for automatic airports extraction from SAR images using multi-level dual attention mechanism

[J]. Remote Sensing, 2020123). DOI:10.3390/rs12030560 .

[本文引用: 3]

Yang JZhu YJiang Bet al.

Aircraft detection in remote sensing images based on a deep residual network and super-vector coding

[J]. Remote Sensing Letters, 201893): 229-237. DOI:10.1080/2150704X.2017.1415474 .

[本文引用: 1]

Wu XHong DTian Jet al.

ORSIm detector: A novel object detection framework in optical remote sensing imagery using spatial-frequency channel features

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019577): 5146-5158. DOI:10.1109/TGRS.2019.2897139 .

[本文引用: 1]

Chen ZZhang TOuyang C.

End-to-End airplane detection using transfer learning in remote sensing images

[J]. Remote Sensing, 2018101): 139. DOI:10.3390/rs10010139 .

[本文引用: 1]

Lin NaFeng LirongZhang Xiaoqing.

Aircraft detection in remote sensing image based on optimized Faster-RCNN

[J]. Remote Sensing Technology and Application,2021362): 275-284.林娜, 冯丽蓉, 张小青. 基于优化Faster-RCNN的遥感影像飞机检测. 遥感技术与应用[J], 2021, 362): 275-284.

[本文引用: 1]

Yang YZhuang YBi Fet al.

M-FCN: Effective fully convolutional network-based airplane detection framework

[J]. IEEE Geoscience and Remote Sensing Letters, 2017148): 1293-1297. DOI:10.1109/LGRS.2017.2708722 .

[本文引用: 1]

Lin HShi ZZou Z.

Fully convolutional network with task partitioning for inshore ship detection in optical remote sensing Ima-ges

[J]. IEEE Geoscience and Remote Sensing Letters, 20171410):1665-1669. DOI:10.1109/LGRS. 2017. 2727515 .

[本文引用: 1]

Kang MLin ZLeng X Get al.

A modified faster R-CNN based on CFAR algorithm for SAR ship detection

[C]∥2017 International Workshop on Remote Sensing with Intelligent Processing (RSIP).IEEE20171-4. DOI:10.1109/RSIP. 2017.7958815 .

[本文引用: 1]

Chen PLi YZhou Het al.

Detection of small ship objects using anchor boxes cluster and feature pyramid network model for SAR imagery

[J]. Journal of Marine Science and Engineering, 202082). DOI:10.3390/jmse8020112 .

[本文引用: 1]

Li QMou LLiu Qet al.

HSF-Net: Multiscale deep feature embedding for ship detection in optical remote sensing imagery

[J]. IEEE Transactions on Geoscience and Remote Sensing,20185612):7147-7161. DOI:10.1109/TGRS. 2018. 2848901 .

[本文引用: 1]

Liu ZWang HWeng Let al.

Ship rotated bounding box space for ship extraction from high-resolution optical satellite images with complex backgrounds

[J]. IEEE Geoscience and Remote Sensing Letters, 2016138): 1074-1078. DOI:10.1109/LGRS.2016.2565705 .

[本文引用: 1]

Yang XSun HFu Ket al.

Automatic ship detection in remote sensing images from Google Earth of complex scenes based on multiscale rotation dense feature Pyramid networks

[J]. Remote Sensing, 2018101): 1-14. DOI:10.3390/rs10010132 .

[本文引用: 1]

Deng ZSun HZhou Set al.

Toward fast and accurate vehicle detection in aerial images using coupled region-based convolutional neural networks

[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2017108): 3652-3664. DOI:10.1109/JSTARS.2017.2694890 .

[本文引用: 1]

Yang CLi WLin Z.

Vehicle object detection in remote sensing imagery based on multi-perspective convolutional neural network

[J]. ISPRS International Journal of Geo-Information, 201877): 249. DOI:10.3390/ijgi7070249 .

[本文引用: 1]

Mandal MShah MMeena Pet al.

AVDNet: A small-sized vehicle detection network for aerial visual data

[J]. IEEE Geoscience and Remote Sensing Letters, 2020173): 494-498. DOI:10.1109/LGRS.2019.2923564 .

[本文引用: 1]

Yu YGu TGuan Het al.

Vehicle detection from high-resolution remote sensing imagery using convolutional capsule networks

[J]. IEEE Geoscience and Remote Sensing Letters, 20191612):1894-1898. DOI:10.1109/LGRS. 2019. 2912582 .

[本文引用: 1]

Cai BJiang ZZhang Het al.

Airport detection using end-to-end convolutional neural network with hard example mining

[J]. Remote Sensing, 2017911): 1-20. DOI:10.3390/rs9111198 .

[本文引用: 1]

Xiao ZGong YLong Yet al.

Airport detection based on a multiscale fusion feature for optical remote sensing images

[J]. IEEE Geoscience and Remote Sensing Letters, 2017149): 1469-1473. DOI:10.1109/LGRS.2017.2712638 .

[本文引用: 1]

Xu YZhu MLi Set al.

End-to-end airport detection in remote sensing images combining cascade region proposal networks and multi-threshold detection networks

[J]. Remote Sensing, 20181010): 1-17. DOI:10.3390/rs10101516 .

[本文引用: 1]

Li SXu YZhu Met al.

Remote sensing airport detection based on end-to-end deep transferable convolutional neural networks

[J]. IEEE Geoscience and Remote Sensing Letters, 20191-5. DOI:10.1109/LGRS.2019.2904076 .

[本文引用: 1]

Zeng FCheng LLi Net al.

A hierarchical airport detection method using spatial analysis and deep learning

[J]. Remote Sensing, 20191119): 2204. DOI:10.3390/rs11192204 .

[本文引用: 1]

Li ZZhu RMa Jet al.

Airport detection method combined with continuous learning of residual-based network on remote sensing image

[J]. Acta Optica Sinica, 20204016): 179-191.

[本文引用: 1]

李竺强朱瑞飞马经宇.

联合连续学习下的残差网络遥感影像机场目标检测 方法

[J]. 光学学报, 20204016): 179-191.

[本文引用: 1]

Hui JDu MYe Xet al.

Effective building extraction from high-resolution remote sensing images with multitask driven deep neural network

[J]. IEEE Geoscience and Remote Sensing Letters,2019165):786-790. DOI:10.1109/LGRS. 2018.2880986 .

[本文引用: 1]

Ma HLiu YRen Yet al.

Detection of collapsed buildings in post-earthquake remote sensing images based on the improved YOLOv3

[J]. Remote Sensing, 2020121): 44. DOI:10.3390/rs12010044 .

[本文引用: 1]

Chen SWang HXu Fet al.

Target classification using the deep convolutional networks for SAR images

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016548): 4806-4817. DOI:10.1109/TGRS.2016.2551720 .

[本文引用: 1]

Han YWei CZhou Ret al.

Combining 3D-CNN and squeeze-and-excitation networks for remote sensing sea ice image classification

[J]. Mathematical Problems in Engineering, 202020201-15. DOI:10.1155/2020/8065396 .

[本文引用: 1]

Nieto-Hidalgo MGallego AGil Pet al.

Two-stage convolutional neural network for ship and spill detection using SLAR images

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018569): 5217-5230. DOI:10.1109/TGRS.2018.2812619 .

[本文引用: 1]

Zeng KWang Y.

A deep Convolutional Neural Network for oil spill detection from spaceborne SAR images

[J]. Remote Sensing, 2020121015. DOI:10.3390/rs12061015 .

[本文引用: 1]

Hill P RKumar ATemimi Met al.

HABNet: Machine learning, remote sensing-based detection of harmful algal blooms

[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020133229-3239. DOI:10.1109/JSTARS.2020.3001445 .

[本文引用: 1]

Cheng GHan JZhou Pet al.

Multi-class geospatial object detection and geographic image classification based on collection of part detectors

[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 201498119-132. DOI:10.1016/j.isprsjprs.2014.10.002 .

[本文引用: 1]

Zhu HChen XDai Wet al.

Orientation robust object detection in aerial images using deep convolutional neural network

[C]∥IEEE International Conference on Image Processing.IEEE20153735-3739. DOI:10.1109/ICIP. 2015. 7351502 .

[本文引用: 1]

Xiao ZLiu QTang Get al.

Elliptic fourier transformation-based histograms of oriented gradients for rotationally invariant object detection in remote-sensing images

[J]. International Journal of Remote Sensing, 2015362): 618-644. DOI:10.1080/01431161.2014.999881 .

[本文引用: 1]

Liu ZYuan LWeng Let al.

A high resolution optical satellite image dataset for ship recognition and some new baselines

[C]∥International Conference on Pattern Recognition Applications & Methods. DOI:10.5220/0006120603240331 .

[本文引用: 1]

Zou ZShi Z.

Random access memories: A new paradigm for target detection in high resolution aerial remote sensing images

[J]. IEEE Transactions on Image Processing, 2018273): 1100-1111. DOI:10.1109/TIP.2017.2773199 .

[本文引用: 1]

Xia G SBai XDing Jet al.

DOTA: A large-scale dataset for object detection in aerial images

[J]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 20183974-3983. DOI:10.1109/CVPR.2018.00418 .

[本文引用: 1]

Li JQu CShao J.

Ship detection in SAR images based on an improved faster R-CNN

[C]∥SAR in Big Data Era: Models,Methods and ApplicationsBIGSARDATA 2017. IEEE,20171-6. DOI:10.1109/BIGSARDATA.2017.8124934 .

[本文引用: 1]

Wang YWang CZhang Het al.

A SAR dataset of ship detection for deep learning under complex backgrounds

[J]. Remote Sensing, 2019117). DOI:10.3390/rs11070765 .

[本文引用: 1]

Wei SZeng XQu Qet al.

HRSID: A high-resolution SAR images dataset for ship detection and instance segmentation

[J].IEEE Access,20208120234-120254. DOI:10.1109/ ACCESS.2020.3005861 .

[本文引用: 1]

Yin WDiao WWang Pet al.

PCAN—part-based context attention network for thermal power plant detection in remote sensing imagery

[J]. Remote Sensing, 2021137): 1243. DOI:10.3390/rs13071243 .

[本文引用: 1]

Sun XWang PWang Cet al.

PBNet: Part-based convolutional neural network for complex composite object detection in remote sensing imagery

[J]. ISPRS Journal of Photogrammetry and Remote Sensing,202117350-65. DOI:10.1016/j.isprsjprs.2020.12.015 .

Fu HFan XYan Zet al.

Detection of schools in remote sensing images based on attention-guided dense network

[J]. ISPRS International Journal of Geo-Information, 20211011): 7362021-11-01]. DOI:10.3390/ijgi10110736 .

[本文引用: 1]

Ghiasi GLin TLe Q V.

NAS-FPN: Learning scalable feature Pyramid architecture for object detection

[C]∥2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). DOI:10.1109/CVPR.2019.00720 .

[本文引用: 1]

/