CASIA OpenIR  > 毕业生  > 博士学位论文
基于深度学习的遥感图像目标识别方法研究
王洪振
学位类型工学博士
导师潘春洪研究员
2018-06
学位授予单位中国科学院研究生院
学位授予地点北京
关键词目标识别 遥感图像 图像分割 特征学习 卷积神经网络 深度学习
摘要
目标识别是遥感图像处理领域中的一个重要研究方向,是天基遥感应用的研究热点。遥感图像目标识别在港口监测、交通疏导等军用和民用领域均发挥着重要的作用。随着对地观测技术的发展,可见光遥感图像空间分辨率逐步提高,高分辨遥感图像提供了丰富的地面细节,遥感目标精细类型识别的需求日益增长。然而,传统的目标识别方法主要基于手工特征,其鲁棒性较低,识别性精度不高,很难满足遥感大数据时代的应用需求。近年来,深度学习在自然图像目标检测、目标识别等任务中已显示出巨大的优势。但遥感图像中目标尺寸变化巨大,同类分散,目标姿态不一,加之同物异谱和同谱异物、光照变化、季节变化和环境多样性、成像质量等多种因素,直接应用现有的基于深度学习的目标识别方法难以取得满意的结果。为此,本文围绕深度学习,对候选区域提取、军事飞机识别、舰船识别、地物精细化识别等遥感目标识别问题开展了一系列研究工作。论文的主要研究内容和贡献如下:
 
1.提出了一种基于图像轮廓的目标预检算法。侯选框所覆盖的目标置信度与该框内目标轮廓信息高度相关。为此,本文提出“瓷砖”算法来有效地去除目标内部的边缘,提高算法的鲁棒性。此外,在置信度计算方程中引入奖励项,提高候选矩形框覆盖目标的紧凑性,抑制目标仅被候选框部分包含的情况。最后,利用支持向量机来学习比例和偏置项,从而对不同长宽比的候选框的置信度进行全局调整。在自然图像、飞机和舰船数据集中验证了该算法的有效性和鲁棒性。
 
2.提出了一种基于深度卷积神经网络的军用飞机识别算法,可同时实现目标定位、目标识别和姿态估计。该网络由两部分组成:第一部分用作候选区域提取,将目标的长宽比和尺度等先验知识加入到锚点的设计中,以提高目标的召回率;第二部分用作候选区域姿态估计、类型识别和坐标回归。两部分网络共用特征学习部分,并利用感知模块进行构造,大大降低了网络参数量。最后在网络训练中加入正则化方法,降低了网络过拟合风险,提高了算法的鲁棒性和识别率。此外,鉴于目前没有公开的可见光军事飞机数据集,本文收集并公开了一个大型的飞机数据集,用以测试、改进飞机识别算法。对比实验验证了所提算法的有效性。
 
3.提出了一种基于旋转矩形框的轻量化的遥感目标识别算法。传统CNN目标识别算法只能输出水平矩形框,无法有效识别具有形状细长、旋转、分布密集等特征的物体,如舰船。本文提出的算法利用神经网络能够提取带有旋转角度的候选区域,并对目标进行精确分类。该模型包含三个重要的组成部分。其一是轻量化特征提取网络,其二是可变角度候选区域提取网络,其三是网络压缩。所构建网络具有姿态自适应性、模型参数少、计算复杂度低等优点。在公开的HRSC2016舰船数据集中的对比实验证明了该模型能够在参数量仅有AlexNet的四十二分之一的情况下,性能远超现有方法。
 
4.提出了一种门控卷积神经网络并将其应用于遥感图像目标语义分割。目前主流的基于神经网络的图像分割方法主要通过结合不同尺度的特征来提升分割性能。但现有的结合形式主要是基于两种特征图的求和或者级联操作,且没有对特征进行筛选。实际上,不同尺度的特征图对网络的贡献是不同的,对特征进行筛选会提升分割的效果。为此,本文提出在卷积神经网络中引入信息熵作为门控信号,并将其传递至不同卷积层级之中,从而实现多尺度特征筛选。这一方法的优点在于,在信息熵大的区域可引入更多的细节信息帮助网络去分类较难的像素,在信息熵小的区域抑制底层细节信息,从而防止因引入过多细节信息而影响已分类正确的像素。该算法在ISPRS 2D图像分割比赛中取得最优的性能。对比实验验证了所提模型的有效性。
其他摘要
Semantic segmentation is a fundamental task in remote sensing image processing.The large ppearance variations of ground objects make this task quite challenging. Recently,deep convolutional neural networks (DCNNs) have shown outstanding performance in this task.A common strategy of these ethods (e.g., SegNet) for performance improvement is to combine the feature maps learned at different DCNN layers. However, such a combination is usually implemented via feature map summation or concatenation, indicating that the features are considered indiscriminately. In fact, features at different positions contribute differently to the final performance. It is advantageous to automatically select adaptive features when merging different-layer feature maps. To achieve this goal, we propose a gated convolutional neural network to fulfill this task. Specifically, we explore the relationship between the information entropy of the feature maps and the label-error map, and then a gate mechanism is embedded to integrate the feature maps more effectively. The gate is implemented by the entropy maps, which are generated to assign adaptive weights to different feature maps as their relative importance. Generally, the entropy maps, i.e., the gates, guide the network to focus on the highly-uncertain pixels, where detailed information from lower layers is required to improve the separability of these pixels. The selected features are finally combined to feed into the classifier layer, which predicts the semantic label of each pixel. The proposed method achieves competitive segmentation accuracy on the public ISPRS 2D Semantic Labeling benchmark, which is challenging for segmentation by only using the RGB images.
 
Deep convolutional neural networks (CNNs) have shown outstanding performance in object recognition from natural images. In contrast, object recognition from remote sensing images is more challenging, due to the com-plex background and inadequate data for training a deep network with a huge number of parameters. In this paper, we propose a unified deep CNN, called DeepPlane, to simultaneously detect the position and classify the category of aircraft in remote sensing images. This model consists of two correlative deep networks: the first one is designed to generate object proposals as well as feature maps and the second one is cascaded upon the first one to perform classification and box regression in one shot. The “Inception Module” is introduced to tackle the insufficient training data problem that is one of the most challenging obstacles of the detection in remote sensing images. Extensive experiments demonstrate the efficiency of the proposed DeepPlane model. Specifically, DeepPlane could model detection  and classification jointly and achieves 91.9% mAP in six categories of aircraft which advances the state-of-the-art, sometimes considerably, for both tasks.
文献类型学位论文
条目标识符http://ir.ia.ac.cn/handle/173211/20947
专题毕业生_博士学位论文
作者单位中国科学院大学,中国科学院自动化研究所
推荐引用方式
GB/T 7714
王洪振. 基于深度学习的遥感图像目标识别方法研究[D]. 北京. 中国科学院研究生院,2018.
条目包含的文件
文件名称/大小 文献类型 版本类型 开放类型 使用许可
基于深度学习的遥感图像目标识别方法研究_(10894KB)学位论文 暂不开放CC BY-NC-SA请求全文
个性服务
推荐该条目
保存到收藏夹
查看访问统计
导出为Endnote文件
谷歌学术
谷歌学术中相似的文章
[王洪振]的文章
百度学术
百度学术中相似的文章
[王洪振]的文章
必应学术
必应学术中相似的文章
[王洪振]的文章
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。