关键词:
遥感影像分割
全局局部多尺度特征融合
门控卷积注意力机制
滑动上采样
空间细节恢复
摘要:
针对当前遥感影像分割任务中存在的多尺度特征融合不充分、全局-局部上下文信息交互不足以及传统上采样方法导致的空间细节丢失等问题,提出一种基于多尺度门控特征融合与动态滑动上采样的遥感影像分割方法(multi-scale gated feature fusion and dynamic sliding upsampling Deeplab,MSGFF-DSU-Deeplab)。DeeplabV3+为基线模型,首先,构建了多尺度全局-局部特征聚合模块(multi scale global local feature aggregation module,MGLFAM),通过全局混合操作与局部混合操作,结合门控注意力机制,实现多层特征的动态加权融合,显著提升了关键区域的特征表达能力;其次,设计和实现了门控卷积注意力特征增强模块(gated convolutional attention fusion module,GCAFM),通过将卷积注意力与门控线性单元相结合,使网络能够自适应聚焦于语义关键区域,有效增强了边缘特征与小尺度目标的表征能力;最后,提出了动态滑动上采样模块(sliding effective upsampling module,SEUM),通过深度可分离卷积与定向通道移位策略的协同优化,显著提升了分辨率重建质量,突破了传统线性插值方法在空间细节恢复方面的性能瓶颈。在WHU-Building与Vaihingen两个高分辨率遥感影像数据集上进行了实验验证,结果表明,所提方法在各种评价指标上均显著优于主流分割方法,其中在WHU-Building数据集上取得90.59%的平均交并比(mean intersection over union,mIoU),在Vaihingen数据集上达到81.42%的mIoU,较基线模型DeeplabV3+均提升约1百分点,更重要的是在保持计算效率的同时,显著改善了边缘细节的识别精度,对小尺度建筑物和复杂地物边界的分割效果尤为突出。所提方法不仅提升了遥感影像的分割性能,还增强了模型对不同场景的适应能力,为高精度遥感影像分析提供了新的技术思路。