img

官方微信

遥感技术与应用, 2019, 34(4): 694-703 doi: 10.11873/j.issn.1004-0323.2019.4.0694

CNN 专栏

基于CNN和农作物光谱纹理特征进行作物分布制图

周壮,1,2,3, 李盛阳1,2, 张康1,2,3, 邵雨阳1,2

1. 中国科学院空间应用工程与技术中心 北京 100094

2. 中国科学院太空应用重点实验室 北京 100094

3. 中国科学院大学 北京 100049

Crop Mapping Using Remotely Sensed Spectral and Context Features based on CNN

Zhou Zhuang,1,2,3, Li Shengyang1,2, Zhang Kang1,2,3, Shao Yuyang1,2

1. Technology and Engineering Center for Space Utilization, Chinese Academy of Sciences, Beijing 100094, China

2. Key Laboratory of Space Utilization, Chinese Academy of Sciences, Beijing 100094, China

3. University of Chinese Academy of Sciences, Beijing 100049, China

收稿日期: 2018-06-25   修回日期: 2019-04-21   网络出版日期: 2019-09-19

基金资助: 国家重点研发计划.  2018YFD1100405

Received: 2018-06-25   Revised: 2019-04-21   Online: 2019-09-19

作者简介 About authors

周壮(1990—),男,江苏徐州人,助理工程师,主要从事遥感技术应用研究E⁃mail:zhouzhuang@csu.ac.cn , E-mail:zhouzhuang@csu.ac.cn

摘要

以卷积神经网络(Convolutional Neural Network, CNN)为代表的深度学习技术,在农作物遥感分类制图领域具有广阔的应用前景。以多时相Landsat 8 多光谱遥感影像为数据源,搭建CNN模型对农作物进行光谱特征提取与分类,并与支撑向量机(SVM)常规分类方法进行对比。进一步引入影像纹理信息,利用CNN对农作物光谱和纹理特征进行提取,优化作物分布提取结果。实验表明:① 基于光谱特征的农作物分布提取,验证结果对比显示,CNN对应各类别精度、总体精度均优于SVM,其中二者总体精度分别为95.14%和91.77%;② 引入影像纹理信息后,基于光谱和纹理特征的CNN农作物分类总体精度提高至96.43%,Kappa系数0.952,且分类结果的空间分布更为合理,可有效区分花生、道路等精细地物,说明纹理特征可用于识别不同作物。基于光谱和纹理信息的CNN特征提取,可面向种植结构复杂区域实现农作物精准分类与分布制图。

关键词: 农作物 ; 遥感 ; 分类 ; CNN ; 纹理信息

Abstract

Deep learning algorithms such as Convolutional Neural Network (CNN) can learn the representative and discriminative features in a hierarchical manner from the remote sensing data. Considering the low-level features as the bottom level, the output feature representation from the top level of the network can be directly fed into a subsequent classifier for pixel-based classification, the CNN has a broad application prospect in the field of agricultural remote sensing. The advantage of CNN in feature extraction can obtain the crop classification in complex planting structure area from multi-spectral remote sensing data, which is difficult in conventional methods. In this paper, a crop mapping method using remotely sensed spectral and context features based on CNN from Landsat OLI data is proposed and applied in Yuanyang county.The architecture of the proposed CNN classifier contains eight layers with weights which are the input layer, two convolution layers, two max pooling layers, two full connection layers and output layer. These eight layers are implemented on spectral and context signatures from 4 different phase Landsat OLI images to discriminate different crops against others. Experimental results demonstrate that the proposed CNN classifier can achieve better classification performance than support vector machines in spectral domain. The context features calculated by the gray level co-occurrence matrix method from Landsat OLI data can enhance the proposed CNN method to achieve the best results.In terms of verification accuracy, the proposed CNN classifier is superior than SVM in spectral domain. The overall accuracy of the two methods is 95.14% and 91.77%, respectively. The accuracy of the proposed classifier is further improved by adding spatial context features on the basis of spectral information. The overall accuracy and Kappa coefficient of the proposed method is 96.43% and 0.952.Furthermore, the crop mapping using spectral and context features based on CNN achieves better spatial representation especially for peanut and roads which is easy to form mixed-pixel. The context features can be extracted by the CNN to enhance the feature representation of these small objects.The CNN-based method from remotely sensed spectral and context features for crop mapping can achieve outstanding performance especially for the fine ground objects in complex planting structure area such as peanuts and roads.

Keywords: Crop ; Remote sensing ; Classification ; CNN ; Context features

PDF (4024KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

周壮, 李盛阳, 张康, 邵雨阳. 基于CNN和农作物光谱纹理特征进行作物分布制图. 遥感技术与应用[J], 2019, 34(4): 694-703 doi:10.11873/j.issn.1004-0323.2019.4.0694

Zhou Zhuang, Li Shengyang, Zhang Kang, Shao Yuyang. Crop Mapping Using Remotely Sensed Spectral and Context Features based on CNN. Remote Sensing Technology and Application[J], 2019, 34(4): 694-703 doi:10.11873/j.issn.1004-0323.2019.4.0694

1 引 言

及时、准确地获取农作物种植面积及空间分布不仅是区域农作物长势监测、产量估测和灾情评估的重要基础[1],也是宏观掌握粮食概况、指导农业生产和调控粮食贸易的依据[2]。遥感技术具有覆盖范围大、探测周期短、费用成本低等优势,已广泛应用于对地观测领域,为快速、准确识别大范围农作物种植信息提供了新的技术手段[3]

按照分类器划分,常用的农作物遥感分类方法有:① 最大似然分类[4,5]。该方法假定各类别特征信息为正态分布,利用统计方法根据贝叶斯准则建立判别函数以实现分类。如刘克宝等[6]以RapidEye高分辨率影像为数据源,采用最大似然监督分类实现黑龙江省肇东市玉米、水稻、大豆等农作物的精细提取。由于遥感信息统计分布的复杂性和随机性,当各类别特征空间分布与预先假设分布不符时,分类结果与实际会存在偏差;② 神经网络方法[7,8]。该方法以分类特征为输入层,输出类别为输出层,并设置隐藏层作为输入和输出层之间的非线性映射实现分类。如熊勤学等[9]选取夏秋作物轮作期和MODIS NDVI均值为标准,采用BP神经网络法,有效提取湖北省江陵区中稻、晚稻、棉花3种作物类型。传统的神经网络层数较少,面对复杂分类问题时其泛化能力受到一定制约;③ 决策树分类[10,11,12,13]。该方法通过一些判断条件对输入特征逐步进行二分和细化,以实现分类。如李晓慧等[14]基于多时相Landsat 8数据,通过构建决策树模型,实现温宿县水稻、玉米、小麦等多种农作物种植区域的分类提取。由于决策树方法特征判别阈值的选取具有较强的主观性,且未必是作物识别的最优特征量,使得识别结果的精度无法保证,适用性受限; ④ 支持向量机(SVM)[15,16]。该方法建立在统计学习和结构风险最小化理论基础上的非参数分类器,通过构造超平面实现分类,在解决非线性、高维模式识别中具有很多优势,并广泛应用于农作物遥感分类。如平跃鹏等[17]通过组合NDVI波段、物候参数及归一化水体指数,利用SVM成功提取松嫩平原大豆、玉米、水稻三种农作物种植信息。

Khatami等[18]对近15 a发表在国际高水平期刊中的地表覆盖遥感分类方法进行精度统计,结果显示SVM整体精度最高,优于最大似然、神经网络、决策树等其他常规分类方法。

与常规SVM等分类方法相比,以CNN(Convolutional Neural Network)为代表的深度学习方法的非线性操作层级数更多,通过逐层提取过程,自动学习得到目标更本质、抽象的特征,能显著提高识别的准确度[19]。在遥感应用领域, CNN目前主要面向高分辨率可见光、高光谱等数据,开展典型地物目标识别等工作,面向多光谱数据进行如农作物分类等应用较少[20,21,22,23]。如何利用CNN特征提取的方法优势,面向多光谱影像实现农作物精准分类,解决常规方法在种植结构复杂区域因同期作物特征相似导致难以区分的问题,具有重要意义。

鉴于此,以Landsat8 OLI影像为数据源,以河南省原阳县为研究区,利用CNN分类算法进行光谱与纹理特征相结合的农作物遥感分类与分布制图研究。主要从CNN与常规SVM分类对比、光谱与纹理特征结合两个方面探讨多光谱遥感影像CNN农作物分布制图的方法。

2 实验区与数据

2.1 研究区概况

研究区原阳县位于河南省北部,黄河北岸,地势西南偏高,东北偏低,地理位置:113.36~114.15°E,34.55~35.11°N,区域总面积1 339 km² (图1),属温带大陆性季风气候,平均气温14.4 ℃,平均降水量547 mm。

图1

图1   研究区概况

Fig.1   General situation of study area


原阳县是农业大县,秋收农作物种植结构复杂,以水稻、玉米和花生为主。其中,水稻5月中下旬播种,10月中上旬收获,玉米、花生是6月上旬播种,9月下旬收获。

2.2 实验数据

2.2.1 遥感数据

为充分利用农作物季相节律特征,选择研究区秋收农作物生长周期内多时相遥感影像为数据源。剔除云覆盖较多的影像后,共获取4景Landsat 8 OLI多光谱影像与1景高分二号(GF-2)PMS高分辨率影像(表1),其中10月16日对应影像中玉米虽已收获,该影像仍可为非玉米作物的分类提取提供有效的数据支持。各影像对应的农作物物候历信息见表2. 其中,Landsat影像选择30 m分辨率的2~7波段进行分类实验,6个波段依次为蓝、绿、红、近红和两个短波红外波段;高分二号影像空间分辨率为0.8 m,共4个波段,对应为蓝、绿、红和近红,可通过目视解译分辨不同农作物,该影像用于与分类结果进行局部空间分布对比,以补充地面调查样点的精度验证,实现更全面的验证分析。遥感影像在应用前均借助ENVI软件进行辐射定标、大气校正等处理,并通过ERDAS软件进行几何校正,误差控制在1个像元。

表1   遥感影像列表

Table 2  List of remote sensing images

编号时相传感器空间分辨率/m云量/%
12015年7月28日OLI301.9
22015年8月13日OLI304.7
32015年9月14日OLI300
42015年10月16日OLI300
52015年8月28日PMS0.80

新窗口打开| 下载CSV


表2   影像对应农作物物候历

Table 2  Crop calendar in Yuanyang Country

日期07-2808-1309-1410-16
水稻分蘖抽穗成熟
玉米拔节成熟
花生开花下针成熟

新窗口打开| 下载CSV


2.2.2 地面调查数据

地面调查数据获取时间为2017年7月,为减少卫星过境与地面测量实验时间不匹配带来的误差影响,并考虑道路可达性因素,选择种植结构稳定的13个村庄作为采样区,以确保样本数据的准确性。最终,获取水稻、玉米、花生等主要农作物的地表覆盖信息,并记录经纬度及作物照片,地面调查样点分布如图1所示。

将野外调查数据结合遥感图像目视解译结果作为本研究的样本数据,共1680个像元,包括水稻、玉米、花生、其他(建筑、道路和水体)共4类地物。随机将样本数据分为训练集(30%)、验证集(10%)和测试集(60%)3部分,见表3. 其中训练集用于模型的训练;验证集用于训练阶段模型的损失评估,以确定合理的参数,优化模型等;测试集作为独立样本用于最终分类结果的精度验证。

表3   样本数据列表

Table 3  List of sample data

编号类别训练集验证集测试集
1水稻13345267
2玉米12542251
3花生9230183
4其他15451307

新窗口打开| 下载CSV


3 研究方法

基于多时相Landsat 8 OLI影像构建光谱数据集,利用搭建的CNN模型对数据集进行光谱特征提取与农作物分类,并与常规SVM方法进行对比。进一步,在光谱数据基础上引入纹理特征,通过计算灰度共生矩阵,提取影像纹理信息,结合多光谱影像构建光谱+纹理特征数据集,基于CNN提取农作物的光谱、纹理特征以实现分类,并与单一光谱特征分类结果进行对比分析。总体技术流程图见图2

图2

图2   技术流程图

Fig.2   Technical flowchart


3.1 数据集构建

地物光谱反射率的差异性特征是农作物分类识别的基础,作物生长期内多个时相的遥感影像能够增加作物反射率信息量,可缓解“异物同谱”现象。对4景预处理后的多光谱影像进行堆叠得到光谱数据集,共4×6=24维,包含农作物光谱、时相等信息。

纹理信息反映图像像元邻域灰度空间的分布规律,描述影像表面内在的特性以及周边环境的关系。农作物具有鲜明的纹理特征,可辅助光谱、时相特征,抑制“同物异谱”现象,提高遥感分类识别的精度。灰度共生矩阵是遥感图像最常用的纹理提取方法,本文首先对24维光谱数据集进行主成分变换,选择3×3大小移动窗口,对第一主成分进行灰度共生矩阵计算,得到方差、信息熵、二阶矩和灰度相关4种最常用于农作物分类的纹理特征[24]。结合光谱数据得到光谱+纹理特征数据集,共4×6+4=28维。

上述两种数据集包含的各像元光谱、光谱+纹理特征需进一步处理,转化为图像才能输入CNN模型进行训练和分类。首先对数据集各波段进行归一化处理,数据范围统一至[0,255],以减少数据范围不一致所带来的误差影响,进一步逐像元提取数据向量,并转化为灰度图像。“光谱数据集”与“光谱+纹理特征数据集”的图像转化流程见图3,分别获取1×24维、1×28维灰度图像。

图3

图3   图像转化流程

Fig.3   Image acquisition process


3.2 CNN模型

CNN是一种带有卷积结构的深度神经网络,也是最具代表性的深度学习模型之一,其局部连接和权重共享的特点在二维图像处理上具有突出优势,网络可对输入的图像自行抽取特征,实现目标识别、分类等应用[25]

典型的CNN包括输入层、卷积层,池化层,全连接层及输出层等,其中卷积层和最大池化层是实现特征提取功能的核心模块[26]

假设输入图像为xzi表示第i层特征图(z0=x)。当zi为卷积层时,卷积过程可描述为:

zi=f(Wizi-1+bi)

其中:Wi表示第i层卷积核的权重;运算符号“*”表示卷积核与第i-1层图像或特征图进行卷积操作,卷积的输出与第i层的偏移向量bi相加,最终通过非线性的激励函数f(x)得到第i层的特征图zi。通过卷积层运算能够增强输入信号的特征并降低噪音[27]

池化层又称作降采样层,通常在卷积层之后,依据一定的规则对卷积特征进行降维。通过将卷积特征划分为多个n×n的不相交区域,提取这些区域的最大(或平均)特征来表示降维后的特征,以更容易进行分类。

假设zi为池化层,以最大池化为例,计算过程可表示为:

zi=max(zi-1)

池化层的作用主要为:① 通过对特征图进行降维处理,降低计算复杂度;② 保持特征平移不变性,即使图像有小的位移,提取到的特征依然会保持不变[28]

经过多个卷积层和池化层的交替传递,提取的特征通过全连接层连接并采用softmax回归得到基于输入的概率分布yli表示第i个标签类别),实现分类。

y(i)=p(l=li | z0;(W,b))

CNN本质是实现原始矩阵z0经过多个层次的数据转换或降维,映射到一个新的特征表达y的数学模型。模型通过极小化误差的反向传播调整权值矩阵进行迭代训练,直到网络的损失函数l(W,b)最小,只要用已知的模式对卷积网络加以训练,网络就具有输入输出对之间的映射能力[29]

3.3 基于CNN的农作物分类

CNN设计主要考虑网络层数、卷积核大小、卷积核数量、卷积核步长、激活函数类型、池化核大小等。由于本研究用于训练和识别的灰度图像尺寸较小(1×24及1×28),当网络层级过深,特征图经过多次卷积、池化后缩小至无法继续在网络传输,当网络层级过浅的时,特征映射层级较少,获取的特征可区分性有限,无法充分利用CNN提取高层、本质特征的优势,因此层数过多、过浅的网络均不适用。考虑本研究所用数据的特征维度,设计用于农作物分类的CNN网络为8层,包括输入层、两个卷积层、两个最大池化层、两个全连接层和一个Softmax分类层。以输入为1×28维的图像为例,模型结构如图4所示。

图4

图4   CNN模型结构

Fig.4   The architecture of the proposed CNN classifier


首先第一个卷积层使用6个1×5的卷积核对1×28的灰度图像进行步长为1的滤波处理,生成6个1×24(28-5+1=24)的特征图;然后经过第一个最大池化层进行下采样处理,生成6个1×12(24/2=12)的特征图;第二个卷积层使用16个1×5的卷积核对1×12的特征图进行步长为1的卷积处理,生成16个1×8(12-5+1=8)的特征图,再经过第二个最大池化层采样,生成16个1×4(8/2=4)的特征图;随后经过第一个全连接层,产生120个神经元,并经过ReLu函数产生的神经元作为第二个全连接层的输入;第二个全连接层共产生84个神经元,同样经过ReLu激活函数,并作为Softmax层的输入,最终输出4类概率结果。

根据地面调查确定的样本数据(训练集、验证集、测试集)分别提取光谱数据集、光谱+纹理特征数据集对应的标签图像。两种数据集对应用于模型训练和最终精度验证的标签图像所代表的像元,在空间分布上严格一致,以减少因标签图像不匹配而影响两组结果的对比。训练过程所用标签图像共计672景,其中504景用于模型训练,168景用于训练过程中的损失评估以优化参数权重。其余1 008景标签图像作为独立样本,用于模型的精度验证。

两组实验对应模型的结构、参数如层数、卷积核大小、卷积核数量、步长、池化核大小、激活函数等均一致。仅因输入图像尺寸区别,模型计算过程中提取的特征图大小存在差异。两组实验均在学习率为0.005的条件下,经过50 000次迭代完成训练。

利用训练好的模型分别对应的光谱数据集与光谱+纹理特征数据集进行逐像元识别应用,可分别获取两种农作物分类结果。

4 结果与分析

4.1 结果

本实验的CNN模型在Caffe平台下搭建完成并完成训练与分类应用,实验环境为1台PC机,配置为Intel(R) Core(TM)i7-6700 CPU@2.60GHz,Nvidia GeForce GTX 530 GPU。

为对比CNN与常规方法在农作物分类应用上的差异和优劣,选择SVM算法,基于相同样本数据(训练集+验证集)构建ROI,以Radial Basis Function核方式对光谱数据集进行农作物分类,SVM分类结果与基于CNN的两种分类结果空间分布对比见图6。为更好地体现各方法的实际精度,利用地面调查数据中测试集作为独立样本分别与3组结果计算混淆矩阵进行精度评价,见表4,5,6,各方法的分类总体精度和Kappa系数统计见表7

图6

图6   研究区农作物分类结果空间分布

Fig.6   Classification spatial map of study area


表4   SVM混淆矩阵结果

Table 4  Confusion matrix result of SVM

类别水稻玉米花生其他总计UA/%
PA/%93.4588.8486.0396.04
水稻25744226796.25
玉米722314725188.84
花生917154318384.15
其他27729130794.79
总计2752511793031 008

新窗口打开| 下载CSV


表5   基于光谱信息的CNN分类混淆矩阵结果

Table 5  Confusion matrix result of CNN with spectral features

类别水稻玉米花生其他总计UA/%
PA/%95.2493.2894.1597.11
水稻26011526797.38
玉米82366125194.02
花生316161318387.98
其他20330230798.37
总计2732531713111 008

新窗口打开| 下载CSV


表6   基于光谱和空间信息的CNN分类混淆矩阵结果

Table 6  Confusion matrix result of CNN with spectral and spatial features

类别水稻玉米花生其他总计UA/%
PA/%96.6994.8094.9498.38
水稻26301326798.50
玉米72376125194.42
花生112169118392.35
其他11230330798.70
总计2722501783081 008

新窗口打开| 下载CSV


表7   三种方法的分类精度和Kappa系数

Table 7  Accuracy and Kappa coefficient of classification results

分类方法总体精度/%Kappa系数
SVM分类91.770.889
基于光谱的CNN分类95.140.934
基于光谱+空间的CNN分类96.430.952

新窗口打开| 下载CSV


4.2 对比分析

基于光谱信息的农作物分类验证结果显示,CNN方法的总体精度、Kappa系数、各类别对应的制图精度、用户精度等评价指标均高于SVM分类法。其中CNN总体精度为95.14%,SVM总体精度为91.77%。CNN不仅可以用于面向多光谱遥感影像的农作物分类,而且其多层非线性变换的组合方式,不断地将农作物光谱信息变换到新的特征空间,获取更抽象、更有效的高层特征表示,可实现相比较SVM常规分类方法更精准的识别。

与基于光谱信息的分类结果相比,引入纹理信息后,综合光谱与纹理特征的CNN农作物分类的各精度评价指标均得到进一步提升,其中总体精度为96.43%,Kappa系数为0.952。本文引入的纹理特征中,方差可反映影像的边缘效应特征,增强影像中植被的信息;信息熵表示影像空间复杂性和均匀性的特征,包含植被地块单元的信息;二阶矩反映影像纹理全局均匀性的特征,可增强植被信息较弱区域的信号强度;灰度相关通过检测邻域均值、方差的空间变化和几何结构,增强地块单元的结构信息。上述表征地物分布结构的纹理特征能有效用于农作物的分类识别,通过人为干预,对遥感影像进行处理,在光谱信息基础上扩充纹理等特征参量,可有效提高基于CNN的农作物分类精度。

此外,3种分类结果中对应各类农作物的用户精度均为水稻精度最高,玉米次之,花生精度最低。原因在于,受灌溉条件等影响,水稻种植区域分布集中,且其地表含水量高于其他作物,使得水稻在近红外波段反射率明显高于其他两种作物(见图5)。由于这种明显的光谱差异,使得水稻分类结果的验证精度最高。该区域花生多为小块田地种植,在图像中容易形成混合像元,验证精度相对较低。

图5

图5   农作物近红外反射率变化曲线

Fig.5   The NIR spectral value curves of crop in difference times


从农作物分类结果的空间分布可以看出,图6中3种结果的整体分布较为相似,仅在某些区域存在差别。图中水稻主要集中在原武镇、太平镇、祝楼乡3个主产区,花生则主要分布原阳县南部和北部区域,图6(a)与其余2幅图对比显示,SVM方法识别的南部花生面积明显较少,图6(b)和图6(c)则呈现较好的一致性,说明基于CNN的两种分类结果由于方法原理相同,结果更为接近。

为了更直观地对比3种分类结果的细节信息与实际地物的吻合程度,选取局部图与对应区域的高分二号高分辨率真彩色遥感影像进行空间分布对比,见图7。通过目视可清晰辨认高分二号影像中水稻、玉米、建筑、道路等地物。图7中1号区域位置为地面调查样区之一,为独立的水稻种植地,周边为玉米,与高分影像中目视识别结果一致。基于CNN的两种结果均正确识别出该地块农作物类别,而SVM方法则误判为玉米,说明CNN方法提取的农作物特征不受周围地物的干扰,对种植区域较小的农作物仍能实现准确的识别。此外,从高分二号影像中还可以清晰辨认该区域的道路信息,如位置2,分类结果中仅基于光谱和纹理特征的CNN分类成功提取出道路,其它两种结果均将道路误判为农作物。由于道路较窄,容易与农作物组成混合像元,对应光谱特征与其他地物混淆,导致识别错误。而通过引入纹理信息,CNN能够捕捉道路在影像中反映出的灰度变化规律,强化其特征表达,进一步被准确识别。说明引入纹理信息后,基于CNN的分类结果在空间分布上具有更准确的细节刻画能力,可准确区分花生、道路等精细地物。

图7

图7   研究区农作物分类结果局部对比

Fig.7   Classification spatial local map of study area


5 结 语

基于多时相的Landsat 8 OLI多光谱遥感数据,以多时相多光谱及纹理信息作为分类特征,以河南省原阳县为研究区,搭建CNN模型分类器,分别对光谱信息、光谱与纹理信息进行农作物特征提取与分类,实现该区域农作物分类与分布制图,并得出以下结论:

(1) CNN可面向多光谱遥感影像实现农作物分类与制图,且具备逐层提取农作物高层特征表示的方法优势,其分类精度优于常规SVM方法。

(2) 基于光谱与纹理特征的CNN农作物分类,其验证精度和空间分布均优于单一光谱分类结果。说明纹理信息可有效用于农作物的分类,通过人为扩充遥感影像的纹理特征参量,可有效提高基于CNN的多光谱遥感影像农作物分类制图效果。

本文提出的作物分类制图方法,通过将多光谱遥感影像中地物光谱、纹理信息经过多层级的非线性映射,不断转化为更高层、本质的特征用于分类,最终在验证精度和空间分布上较常规方法均有提升,为实现种植结构复杂区域的农作物分布制图提供一种可行方法。其中,光谱信息对CNN最终提取的特征中贡献最大,农作物间的光谱差异性仍是该方法分类的理论基础,纹理信息主要用于辅助增强花生、道路等较小地物的特征表达,消减混合像元的影响,以优化最终分类结果。

本研究面向多光谱遥感影像的农作物CNN制图是基于像元的分类,影像中像元包含的特征仅包括波段反射率、纹理特征,其维度较小,面向较深层级的CNN时,特征图在提取过程中不断缩小,以致无法在网络中继续传输,因此并不适用。而当网络层级较少时,特征非线性转化操作较少,不能充分利用CNN逐层映射提取的优势,无法获取本质、区分性更强的特征,影响最终分类精度。本文设计的8层CNN模型可面向多光谱遥感影像开展光谱纹理特征的作物分类与制图应用,对特征维度相近的数据,模型具有一定的可推广性。

此外,不同光谱波段反射率表征的农作物植被信息及其生长状态等存在相关性,对多光谱反射率进行分析组合及非线性运算,可构建植被指数以增强不同作物间差异性的特征表达并弱化非作物的信号。通过扩充植被指数等特征,提高输入信息的有效性,以优化基于CNN的作物分类与制图的方法是本研究后续的工作方向。当输入的特征维度扩充后,也可进一步分析研究网络层级、参数对分类的影响,充分挖掘CNN的技术优势,以获取表现更优的模型。

参考文献

TangHuajun, WuWenbin, YangPeng, et al.

Recent Progresses in Monitoring Crop Spatial Patterns by Using Remote Sensing Technologies

[J]. Scientia Agricultura Sinica, 2010, 43(14): 2879-2888.

[本文引用: 1]

唐华俊, 吴文斌, 杨鹏, .

农作物空间格局遥感监测研究进展

[J]. 中国农业科学, 2010, 43(14): 2879-2888.

[本文引用: 1]

XiaoX, BolesS, FrolkingS, et al.

Mapping Paddy Rice Agriculture in South and Southeast Asia Using Multi-temporal MODIS Images

[J]. Remote Sensing of Environment, 2006, 100(1): 95-113.

[本文引用: 1]

CaoWeibin, YangBangjie, SongJinpeng.

Spectral Information based Model for Cotton Identification on Landsat TM Image

[J]. Transactions of the CSAE, 2004, 20(4): 112-116.

[本文引用: 1]

曹卫彬, 杨邦杰, 宋金鹏.

TM影像中基于光谱特征的棉花识别模型

[J]. 农业工程学报, 2004, 20(4):112-116.

[本文引用: 1]

JiaKun, LiQiangzi, TianYichen, et al.

Accuracy Improvement of Spectral Classification of Crop Using Microwave Backscatter Data

[J]. Spectroscopy and Spectral Analysis, 2011, 31(2):483-487.

[本文引用: 1]

贾坤, 李强子, 田亦陈,.

微波后向散射数据改进农作物光谱分类精度研究

[J]. 光谱学与光谱分析, 2011,31(2): 483-487.

[本文引用: 1]

YangC, EverittJ H, MurdenD.

Evaluating High Resolution SPOT 5 Satellite Imagery for Crop Identification

[J]. Computers and Electronics in Agriculture, 2011, 75(2): 347-354.

[本文引用: 1]

LiuKebao, LiuShubin, LiZhongjun.

Extraction on Cropping Structure based on High Spatial Resolution Remote Sensing Data

[J]. Chinese Journal of Agricultural Resources and Regional Planning, 2014, 35(1): 21-26.

[本文引用: 1]

刘克宝, 刘述彬, 陆忠军,.

利用高空间分辨率遥感数据的农作物种植结构提取

[J]. 中国农业资源与区划, 2014, 35(1):21-26.

[本文引用: 1]

ZhuDengsheng, PanJiazhi, HeYong.

Identification Methods of Crop and Weeds based on VIs/NIR spectroscopy and RBF-NN model

[J]. Spectroscopy and Spectral Analysis, 2008, 28(5): 1102-1106.

[本文引用: 1]

朱登胜, 潘家志, 何勇.

基于光谱和神经网络模型的作物与杂草识别方法研究

[J]. 光谱学与光谱分析, 2008, 28(5): 1102-1106.

[本文引用: 1]

PengGuangxiong, GongAdu, CuiWeihong.

Study on Methods Comparision of Typical Remote Sensing Classification based on Multi-temporal Images

[J]. Journal of Geo-Information Science, 2012, 11(2): 20-26.

[本文引用: 1]

彭光雄, 宫阿都, 崔伟宏, .

多时相影像的典型区农作物识别分类方法对比研究

[J]. 地球信息科学学报, 2012, 11(2): 225-230.

[本文引用: 1]

XiongQinxue, HuangJingfeng.

Estimation of Autumn Harvest Crop Planting Area based on NDVI Sequential Characteristics

[J]. Transactions of the Chinese Society of Agricultural Engineering, 2009, 25(1): 144-148.

[本文引用: 1]

熊勤学, 黄敬峰.

利用 NDVI 指数时序特征监测秋收作物种植面积

[J]. 农业工程学报, 2009, 25(1): 144-148.

[本文引用: 1]

FoersterS, KadenK, FoersterM, et al.

Crop Type Mapping Using Spectral-temporal Profiles and Phenological Information

[J]. Computers and Electronics in Agriculture, 2012, 89: 30-40.

[本文引用: 1]

WangLianxi, XuShengnan, LiQi, et al.

Extraction of Winter Wheat Planted Area in Jiangsu Province Using Decision tree and Mixed-pixel Methods

[J]. Transactions of the Chinese Society of Agricultural Engineering, 2016, 32(5): 182-187.

[本文引用: 1]

王连喜, 徐胜男, 李琪,.

基于决策树和混合像元分解的江苏省冬小麦种植面积提取

[J]. 农业工程学报, 2016(5):182-187.

[本文引用: 1]

WangWenjing, ZhangXia, ZhaoYinde, et al.

Cotton Extraction Method of Integrated Multi-features based on Multi-temporal Landsat 8 Images

[J]. Journal of Remote Sensing, 2017, 21(1):115-124.

[本文引用: 1]

王文静, 张霞, 赵银娣, .

综合多特征的 Landsat 8 时序遥感图像棉花分类方法

[J]. 遥感学报, 2017, 21(1): 115-124.

[本文引用: 1]

LiuJikai, ZhongShiquan, LiangWenhai,et al.

Extraction on Crops Planting Structure based on Multi-temporal Landsat 8 OLI Images

[J]. Remote Sensing Technology and Application, 2015, 30(4): 775-783.

[本文引用: 1]

刘吉凯, 钟仕全, 梁文海.

基于多时相Landsat 8 OLI影像的作物种植结构提取

[J]. 遥感技术与应用, 2015, 30(4):775-783.

[本文引用: 1]

LiXiaohui, WangHong, LiXiaobing, et al.

Study on Crops Remote Sensing Classification based on Multi-temporal Landsat 8 OLI Images

[J]. Remote Sensing Technology and Application, 2019, 34(2):384-397.

[本文引用: 1]

李晓慧, 王宏, 李晓兵, .

基于多时相Landsat 8 OLI 影像的农作物遥感分类研究

[J]. 遥感技术与应用,2019,34(2):387-397.

[本文引用: 1]

ZhangRi, MaJianwen.

A Feature Selection Algorithm for Hyperspectual Data with SVM-RFE

[J]. Geomatics and Information Science of Wuhan University, 2009, 34(7):834-837.

[本文引用: 1]

张睿, 马建文.

一种SVM-RFE高光谱数据特征选择算法

[J]. 武汉大学学报(信息科学版), 2009, 34(7):834-837.

[本文引用: 1]

ShiFeifei, GaoXiaohong, YangLingyu, et al.

Research on Jypical Crop Classification based on HJ-1A Hyperspectral Data in the Huangshui River Basin

[J]. Remote Sensing Technology and Application, 2017, 32(2): 206-217.

[本文引用: 1]

史飞飞高小红杨灵王.

基于HJ-1A高光谱遥感数据的湟水流域典型农作物分类研究

[J]. 遥感技术与应用,2017322):201-217.

[本文引用: 1]

PingYaopeng, ZangShuying.

Crop Identification based on MODIS NDVI Time-series Data and Phenological Characteristics

[J]. Journal of Natural Resources, 2016, 31(3): 503-513.

[本文引用: 1]

平跃鹏, 臧淑英.

基于 MODIS 时间序列及物候特征的农作物分类

[J]. 自然资源学报, 2016, 31(3): 503-513.

[本文引用: 1]

KhatamiR, MountrakisG, StehmanS V.

A Meta-analysis of Remote Sensing Research on Supervised Pixel-based Land-cover Image Classification Processes: General Guidelines for Practitioners and Future Research

[J]. Remote Sensing of Environment, 2016, 177: 89-100.

[本文引用: 1]

KrizhevskyA, SutskeverI, HintonG E.

Imagenet Classification with Deep Convolutional Neural Networks

[C]⫽Advances in Neural Information Processing Systems. 2012: 1097-1105.

[本文引用: 1]

MakantasisK, KarantzalosK, DoulamisA, et al.

Deep Supervised Learning for Hyperspectral Data Classification Through Convolutional Neural Networks

[C]⫽2015 IEEE International Geoscience and Remote Sensing Symposium(IGARSS), 2015: 4959-4962.

[本文引用: 1]

ZhangF, DuB, ZhangL.

Saliency-Guided Unsupervised Feature Learning for Scene Classification

[J]. IEEE Transactions on Geoscience & Remote Sensing, 2015, 53(4):2175-2184.

[本文引用: 1]

ZhangKang, BaoqingHei, ZhouZhuang, et al.

CNN with Coefficient of Variation-based Dimensionality Reduction for Hyperspectral Remote Sensing Images Classification

[J]. Journal of Remote Sensing, 2018, 22(1):87-96.

[本文引用: 1]

张康,黑保琴, 周壮,.

变异系数降维的CNN高光谱遥感图像分类

[J]. 遥感学报, 2018, Journal of Remote Sensing, 2018, 22(1):87-96.

[本文引用: 1]

HuangYun, TangLinbo, LiZhen, et al.

Research on Peanut Planting Area Classification Technology Using Remote Sensing Image based Deep Learning

[J]. Journal of Signal Processing, 2019,35(4):617-622.

[本文引用: 1]

黄云,唐林波,李震,.

采用深度学习的遥感图像花生种植区域分类技术研究

[J].信号处理,2019,35(4):617-622.

[本文引用: 1]

MaLi.

Extracting Corn Planting Area by Multi-source Data with SVM Mixed-field Decomposed Method

[D]. Xi'an: Xi'an University of Science and Technology, 2009.

[本文引用: 1]

马丽.

多源信息复合的 SVM 混合地块分解法提取玉米种植面积

[D]. 西安: 西安科技大学, 2009.

[本文引用: 1]

LecunY, BottouL, BengioY, et al.

Gradient-based Learning Applied to Document Recognition

[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

[本文引用: 1]

HintonG E, SalakhutdinovR R.

Reducing the Dimensionality of Data with Neural Networks

[J]. Science, 2006, 313(5786): 504-507.

[本文引用: 1]

HuW, HuangY, WeiL, et al.

Deep Convolutional Neural Networks for Hyperspectral Image Classification

[J]. Journal of Sensors, 20151-12.

[本文引用: 1]

YueJ, ZhaoW, MaoS, et al.

Spectral–spatial Classification of Hyperspectral Images Using Deep Convolutional Neural Networks

[J]. Remote Sensing Letters, 2015, 6(6): 468-477.

[本文引用: 1]

LiYandong, HaoZongbo, LeiHang.

Survey of Convolutional Neural Network

[J]. Journal of Computer Applications, 2016(9): 2508-2515.

[本文引用: 1]

李彦冬, 郝宗波, 雷航.

卷积神经网络研究综述

[J]. 计算机应用, 2016, 36(9): 2508-2515.

[本文引用: 1]

/