成都网站建设优创,黄石网站设计制作公司,创新设计产品,wordpress博客acg主题LWGANet: Addressing Spatial and Channel Redundancy in Remote Sensing Visual Tasks with Light-Weight Grouped AttentionLWGANet论文全面解析一、研究背景与动机1.1 核心问题该论文针对遥感#xff08;RS#xff09;图像视觉分析中的两大固有冗余问题#xff1a;空间冗…LWGANet: Addressing Spatial and Channel Redundancy in Remote Sensing Visual Tasks with Light-Weight Grouped AttentionLWGANet论文全面解析一、研究背景与动机1.1 核心问题该论文针对遥感RS图像视觉分析中的两大固有冗余问题空间冗余Spatial Redundancy遥感图像中包含大量同质化背景道路、农田、海洋显著目标稀疏分布导致大量计算资源浪费在低价值区域通道冗余Channel Redundancy遥感图像尺度变化极端从小型车辆到大型跑道单一特征空间难以高效捕获多尺度目标导致特征通道利用效率低下1.2 现有方法的局限现有轻量级网络如MobileNetV2主要为自然图像设计采用同质化分组策略如深度可分离卷积无法有效解决遥感图像的特殊冗余问题CNN模型如FasterNet局部表征强但缺乏全局感受野Transformer模型如EfficientFormerV2全局建模能力强但抑制高频空间信息为什么Transformer模型抑制高频空间信息Transformer模型特别是在图像处理中的应用如EfficientFormerV2具有很强的全局建模能力能够捕捉长程依赖关系。然而Transformer本身的架构和计算方式使得它在捕捉全局信息时对局部高频特征如纹理、边缘等细节信息的抑制较强。# 输入一组token图像patch的特征# 假设8×8 64个patchQ input W_q # Query我要找什么K input W_k # Key我是什么V input W_v # Value我的内容# 计算注意力权重attention_weights softmax(Q K.T / sqrt(d)) # 64×64矩阵**关键特点**每个位置都看**全局所有位置**Patch 1 的输出 0.3×Patch1 0.1×Patch2 ... 0.05×Patch64Patch 2 的输出 0.2×Patch1 0.4×Patch2 ... 0.03×Patch642.3 为什么抑制高频信息#### 原因1Patch化导致局部信息丢失原始图像224×224┌───────────────────────────────┐│ │││││ ←建筑物边缘1像素宽 ││ │││││ ││ │└───────────────────────────────┘Vision Transformer处理Step 1: 切成16×16的patch → 14×14196个patch┌────┬────┬────┬────┐│ P1 │ P2 │ P3 │... │ ← 每个patch内部做平均├────┼────┼────┼────┤│ P5 │ P6 │ P7 │... │└────┴────┴────┴────┘问题- 1像素宽的边缘在16×16 patch中被稀释- Patch内部求平均 → 细节模糊- 边缘信息被平滑掉 ❌卷积神经网络的局部感受野相比之下传统的卷积神经网络CNN通过卷积核的局部感受野低通滤波器只保留低频去除高频能够更好地保留高频空间信息如边缘和细节因为卷积操作具有强烈的局部特征捕捉能力。举个例子在处理图像时卷积神经网络如VGG、ResNet等会通过滑动窗口的方式逐步提取局部特征。高频信息如边缘、纹理通常通过小的卷积核进行提取这样就能保留细节。而Transformer模型如EfficientFormerV2虽然可以捕捉远距离的全局信息但在计算时会平均各位置的信息因此高频的局部细节信息容易被“平滑”掉反而在全局特征上会更突出。深度可分离卷积Depthwise Separable Convolution**可视化**步骤1Depthwise每个通道单独卷积输入通道 独立卷积 中间结果┌──┐ ┌───┐ ┌──┐│C1│─────────→│3×3│─────────────────→│D1│ ← 只看C1│C2│─────────→│3×3│─────────────────→│D2│ ← 只看C2│C3│─────────→│3×3│─────────────────→│D3│ ← 只看C3└──┘ └───┘ └──┘步骤2Pointwise1×1卷积混合中间结果 1×1卷积 输出通道┌──┐ ┌─────┐ ┌──┐│D1│─────────→│ │──────────────→│O1││D2│─────────→│1×1 │──────────────→│O2││D3│─────────→│ │──────────────→│O3│└──┘ └─────┘ └──┘参数量- Depthwise: K×K×C_in×1 (每个通道一个核)- Pointwise: 1×1×C_in×C_out- 总计K×K×C_in C_in×C_out深度可分离卷积通过将标准的卷积操作分为两个部分来降低计算复杂度Depthwise Convolution每个输入通道用一个独立的卷积核进行卷积即每个通道独立地进行处理没有跨通道的信息交互。Pointwise Convolution然后用 1×11 \times 11×1 卷积核对深度卷积的输出进行组合进行跨通道的信息整合。在深度可分离卷积中所有通道都用相同的卷积核大小和处理方式同质化进行处理。每个通道的卷积操作并没有做差异化和多通道的互相交互不强而是每个通道独立处理。这有利于减少计算量但也意味着缺少了对不同特征的区分和自适应处理。二、核心贡献2.1 四大主要贡献识别双重冗余瓶颈首次系统性地将空间和通道冗余作为遥感图像高效网络设计的关键瓶颈LWGA模块轻量级分组注意力模块通过将通道解耦为专用的多尺度路径来解决通道冗余TGFI模块Top-K全局特征交互模块通过稀疏交互机制高效建模全局上下文缓解空间冗余LWGANet架构基于上述原理构建的新型轻量级骨干网络在12个数据集、4大遥感任务上达到SOTA性能三、方法论详解3.1 整体架构LWGANet采用四阶段层级结构空间分辨率依次降低4×、8×、16×、32×提供三个变体L0、L1、L2stem层通道数分别为32、64、96每阶段包含若干LWGA块块数配置为[1,2,4,2]L0/L1或[1,4,4,2]L23.2 LWGA模块核心创新异构分组策略打破传统同质化分组范式将输入特征分为4个非重叠路径每个路径处理不同尺度路径模块功能尺度X₁GPA门控点注意力增强细粒度特征点级细节X₂RLA常规局部注意力捕获局部纹理局部模式X₃SMA稀疏中程注意力捕获中等范围上下文中程结构X₄SGA稀疏全局注意力建模长程依赖全局上下文各子模块详解详细解析LWGA模块架构图一、整体流程解读顶部主流程完整数据流Input Features (H×W×C) ↓ [Channel Split] 通道分割 ↓ ┌───┴───┬───────┬───────┐ ↓ ↓ ↓ ↓ GPA RLA TGFI→SMA TGFI→SGA (C/4) (C/4) (C/4) (C/4) ↓ ↓ ↓ ↓ └───┬───┴───────┴───────┘ ↓ [Channel Concat] 通道拼接 ↓ Output Features (H×W×C)二、四个子模块详解1️⃣ GPA (Gate Point Attention) - 门控点注意力右上角可视化呈现点状模式 功能记住 1×1卷积 门控机制扩展-压缩-门控就可以实现对单个像素实现观察实现像素级别的观察捕获逐像素级别的细节类似显微镜放大观察每个点门控三要素 1. 值在零到一 [0,1]范围 2. 乘法选通过 element-wise × 3. 控制信息流 filtering决定信息的流通性实现原理# 1×1卷积 门控机制 X1 input[:, :, :, 0:C//4] # 取前1/4通道 # 扩展-压缩-门控 expanded Conv1x1(X1, C//4 → C) # 扩展到C通道 compressed Conv1x1(expanded, C → C//4) # 压缩回C/4 gate Sigmoid(compressed) # 生成0-1权重 output X1 gate * X1 # 门控增强适用场景✅ 小车辆检测10×10像素✅ 建筑物角点✅ 精细边缘✅ 窗户、标志等细小物体为什么叫Point只关注单个像素点不看邻域2️⃣ RLA (Regular Local Attention) - 常规局部注意力右侧第二行可视化呈现局部密集模式▓▓▓▓▓ ▓▓█▓▓ ← 中心像素周围的3×3区域 ▓▓▓▓▓功能捕获局部纹理和模式类似放大镜看清局部细节实现原理# 标准3×3卷积 X2 input[:, :, :, C//4:C//2] output Conv3x3(X2) # 简单直接的局部卷积 output BN(output) output Activation(output)适用场景✅ 道路纹理✅ 建筑物表面材质✅ 小型结构物20-50像素✅ 规则形状物体为什么叫Regular使用标准的、规则的卷积核3️⃣ SMA (Sparse Medium-range Attention) - 稀疏中程注意力右侧第三行可视化呈现十字形/四方向模式↑ │ ←───█───→ ← 四个方向的稀疏连接 │ ↓功能捕获中等距离的上下文11×11范围类似望远镜看到中等范围适合不规则形状物体为什么先经过TGFI因为要处理11×11范围直接计算太贵# ❌ 不用TGFI的问题 # 假设特征图64×64 for each pixel in 64×64: # 4096个像素 compute 11×11 attention # 每个像素看121个邻居 # 总计算量4096 × 121 ≈ 50万次 # ✅ 用TGFI优化 X3 input[:, :, :, C//2:3*C//4] # Step 1: TGFI稀疏采样 (3×3区域选Top-1) X3_sparse TGFI_downsample(X3, factor3) # 64×64 → 21×21 (减少到原来的1/9) # Step 2: 在稀疏特征上做中程注意力 # 四方向注意力公式论文Eq.2 attention FourDirectionAttention(X3_sparse, window11) # 水平左右各5个位置 # 垂直上下各5个位置 # 对角1左上-右下各5个位置 # 对角2左下-右上各5个位置 # Step 3: TGFI恢复到原始尺寸 attention_restored TGFI_upsample(attention, positions) output attention_restored * X3计算量对比不用TGFI: 64×64 × 11×11 497,664 次操作 用TGFI: 21×21 × 11×11 53,361 次操作 ↓ 节省 90% 计算量适用场景✅ 不规则港口结构✅ 停车场需要看到多辆车的关系✅ 河流、道路细长形状✅ 中型建筑群50-150像素4️⃣ SGA (Sparse Global Attention) - 稀疏全局注意力右侧第四行可视化呈现更稀疏的全局模式 · · · · · · · · · · · · · · · ·功能建模长程依赖和全局场景理解类似卫星视角纵观全局为什么先经过TGFI全局注意力的复杂度是二次方# ❌ 不用TGFI的恐怖计算量 # Self-Attention复杂度O(N²) # N H × W 64×64特征图 N 4,096 注意力矩阵4,096 × 4,096 16,777,216 (1600万) # ✅ 用TGFI优化 X4 input[:, :, :, 3*C//4:C] # Stage 1-2: 特征图大用卷积近似 if stage in [1, 2]: X4_sparse TGFI_downsample(X4, factor2) # 64×64 → 32×32 # 用5×5分组卷积 7×7膨胀卷积近似全局 conv_global Conv5x5_grouped(X4_sparse) conv_dilated Conv7x7_dilated(conv_global, dilation3) output TGFI_upsample(conv_dilated) # Stage 3: 特征图中等用稀疏注意力 elif stage 3: X4_sparse TGFI_downsample(X4, factor2) # 32×32 → 16×16 # 注意力矩阵256×256可接受 attention MultiHeadAttention(X4_sparse, heads4) output TGFI_upsample(attention) # Stage 4: 特征图小直接全密集注意力 else: # stage 4 # 16×16特征图注意力矩阵256×256很小 output MultiHeadAttention(X4, heads4) # 不需要TGFI计算量对比Stage 2为例不用TGFI: Self-Attention(64×64) 4096² 16,777,216 次乘法 用TGFI: Self-Attention(32×32) 1024² 1,048,576 次乘法 ↓ 节省 94% 计算量适用场景✅ 机场跑道全局布局✅ 大型港口的整体结构✅ 城市街区的整体规划✅ 大型建筑200像素三、TGFI模块详解底部虚线框可视化解读底部示意图展示的三步流程 ┌─────────────────────────────────────┐ │ Step 1: 稀疏采样 │ │ ┌────────┐ ┌──────┐ │ │ │█ █ █ │ │█ █ │ │ │ │ █ █ █│ → │ █ █ │ (Top-K) │ │ │█ █ █ │ └──────┘ │ │ └────────┘ 更少的token │ │ 密集特征 稀疏特征 │ └─────────────────────────────────────┘ ↓ ┌─────────────────────────────────────┐ │ Step 2: SMA or SGA处理 │ │ ┌──────┐ ┌──────┐ │ │ │█ █ │ │▓ ▓ │ │ │ │ █ █ │ → │ ▓ ▓ │ (增强) │ │ └──────┘ └──────┘ │ │ 稀疏特征 增强特征 │ └─────────────────────────────────────┘ ↓ ┌─────────────────────────────────────┐ │ Step 3: 位置恢复 (Position Regression)│ │ ┌──────┐ ┌────────┐ │ │ │▓ ▓ │ │▓ · ▓ · │ │ │ │ ▓ ▓ │ → │· ▓ · ▓ │ (插值) │ │ └──────┘ │▓ · ▓ · │ │ │ └────────┘ │ │ 增强特征 恢复到原始大小 │ └─────────────────────────────────────┘TGFI的三个关键步骤Step 1: Top-K稀疏采样def TGFI_sample(features, factor): features: H×W×C factor: 下采样因子2或3 # 使用MaxPool2d选择最显著特征 sparse_features, indices F.max_pool2d( features, kernel_sizefactor, stridefactor, return_indicesTrue # 记住位置 ) # H×W → H/factor × W/factor return sparse_features, indices可视化原始特征图16×16- 激活值 ┌─────────────────────┐ │ 0.1 0.3 0.2 0.1 │ │ 0.2 0.9 0.1 0.3 │ ← 0.9最显著 │ 0.1 0.2 0.8 0.2 │ │ 0.3 0.1 0.2 7.5 │ ← 7.5最显著 └─────────────────────┘ ↓ MaxPool2d(kernel2, stride2) 稀疏特征图8×8- 只保留最强的 ┌──────────┐ │ 0.9 0.3 │ │ 0.3 7.5 │ └──────────┘ 同时记录位置索引 indices [(1,1), (1,3), (3,1), (3,3)]Step 2: 子空间交互SMA或SGA# 在稀疏特征上执行计算密集操作 enhanced SMA_or_SGA(sparse_features) # SMA的四方向注意力 if module SMA: enhanced FourDirectionAttention( sparse_features, window11 ) # SGA的全局注意力 elif module SGA: enhanced MultiHeadSelfAttention( sparse_features, num_heads4 )Step 3: 位置回归/恢复def TGFI_restore(enhanced, indices, original_size): enhanced: 增强后的稀疏特征 indices: 之前记录的位置 original_size: 原始尺寸 # 使用MaxUnpool2d恢复到原始位置 restored F.max_unpool2d( enhanced, indices, # 用之前保存的位置 kernel_sizefactor, stridefactor, output_sizeoriginal_size ) # 非采样位置用插值填充 restored F.interpolate( restored, sizeoriginal_size, modebilinear ) return restored可视化增强稀疏特征8×8 ┌──────────┐ │ 2.5 1.8 │ │ 1.2 9.3 │ └──────────┘ ↓ MaxUnpool2d 插值 恢复特征图16×16 ┌─────────────────────┐ │ · · · · │ │ · 2.5 · 1.8 │ ← 2.5和1.8放回原位 │ · · · · │ │ · 1.2 · 9.3 │ ← 1.2和9.3放回原位 └─────────────────────┘ ↓ 插值填充空白位置 完整特征图16×16 ┌─────────────────────┐ │ 1.5 2.0 2.5 2.1 │ ← 插值填充 │ 1.8 2.5 2.1 1.8 │ │ 1.3 1.8 1.5 2.0 │ │ 1.1 1.2 5.0 9.3 │ └─────────────────────┘四、右侧注意力模式可视化GPA - 点状模式原图 注意力图 ┌────────┐ ┌────────┐ │ │ │ │ ← 建筑角点 │ │ → │ │ │ │ │ │ ← 关注关键点 └────────┘ └────────┘特点离散的点关注关键位置RLA - 局部密集模式原图 注意力图 ┌────────┐ ┌────────┐ │ │ │ ▓▓▓ │ ← 车辆周围3×3 │ │ → │ ▓█▓ │ ← 密集覆盖 │ │ │ ▓▓▓ │ └────────┘ └────────┘特点小范围密集覆盖SMA - 十字形模式原图 注意力图 ┌────────┐ ┌────────┐ │ ⚓ │ │ ↑ │ │ │ → │ ←→ │ ← 四方向扩散 │ │ │ ↓ │ ← 11×11范围 └────────┘ └────────┘特点中等范围四方向稀疏连接SGA - 稀疏全局模式原图 注意力图 ┌────────┐ ┌────────┐ │ ✈️ │ │· · │ ← 远距离连接 │ │ → │· · ·│ ← 稀疏采样点 │ │ │· · │ ← 全局视野 └────────┘ └────────┘特点全图范围稀疏连接关键区域五、为什么SMA和SGA需要TGFI对比表特征GPARLASMASGA感受野1×13×311×11全局计算复杂度O(C)O(9C)O(121C)O(N²)需要TGFI?❌ 不需要❌ 不需要✅需要✅需要原因单点计算邻域小邻域大全局巨大具体原因GPA不需要TGFI# 1×1卷积每个像素独立处理 for pixel in image: output W pixel # 只是矩阵乘法 # 复杂度O(HWC) ← 线性可接受RLA不需要TGFI# 3×3卷积局部邻域 for pixel in image: output sum(W[i,j] * neighbors[i,j]) # 只看9个邻居 # 复杂度O(9HWC) ← 仍是线性硬件优化好SMA需要TGFI# ❌ 不用TGFI for pixel in 64×64: # 4096像素 # 四方向每方向5个位置 attention compute_11x11_attention(pixel) # 看121个邻居 # 复杂度O(121HWC) ← 太大了 # ✅ 用TGFI for pixel in 21×21: # 441像素稀疏后 attention compute_11x11_attention(pixel) # 复杂度降低到原来的 1/9SGA需要TGFI# ❌ 不用TGFI attention_matrix Q K.T # (HW) × (HW) # 64×64特征图4096 × 4096 1600万次计算 # ✅ 用TGFI attention_matrix Q_sparse K_sparse.T # (HW/4) × (HW/4) # 32×32稀疏特征1024 × 1024 100万次计算 # 降低到原来的 1/16六、完整流程示例假设处理一个64×64×256的特征图# 输入 input torch.randn(1, 64, 64, 256) # Channel Split X1 input[:, :, :, 0:64] # GPA通道 X2 input[:, :, :, 64:128] # RLA通道 X3 input[:, :, :, 128:192] # SMA通道 X4 input[:, :, :, 192:256] # SGA通道 # 并行处理 # 路径1: GPA不需要TGFI R1 GPA(X1) # 64×64×64 # 路径2: RLA不需要TGFI R2 RLA(X2) # 64×64×64 # 路径3: SMA需要TGFI X3_sparse, idx3 TGFI_sample(X3, factor3) # 21×21×64 R3_sparse SMA(X3_sparse, window11) # 21×21×64 R3 TGFI_restore(R3_sparse, idx3, (64,64)) # 64×64×64 # 路径4: SGA需要TGFI X4_sparse, idx4 TGFI_sample(X4, factor2) # 32×32×64 R4_sparse SGA(X4_sparse, heads4) # 32×32×64 R4 TGFI_restore(R4_sparse, idx4, (64,64)) # 64×64×64 # Channel Concat output torch.cat([R1, R2, R3, R4], dim-1) # 64×64×256七、核心设计理念总结异构设计哲学传统方法同质化 256通道 → 全部做3×3卷积 问题一刀切无法适应多尺度 LWGANet异构化 64通道 → 专注点级细节GPA 成本低 64通道 → 专注局部纹理RLA 成本低 64通道 → 专注中程结构SMATGFI成本中 64通道 → 专注全局上下文SGATGFI成本中 优势 1. 各司其职通道利用率高 2. TGFI控制成本SMA/SGA能负担得起 3. 多尺度全覆盖无短板TGFI的价值不是所有路径都需要TGFI 需要TGFI的条件 ✅ 感受野大5×5 ✅ 计算复杂度高O(N²)或O(k²) ✅ 遥感图像的显著性稀疏分布 GPA/RLA不需要计算量小直接算更快 SMA/SGA必须有不然计算量爆炸希望这个详细的图解能帮你完全理解LWGA模块的设计核心要点四路异构GPA(点)/RLA(局部)/SMA(中程)/SGA(全局)TGFI作用降低SMA和SGA的计算成本空间维度降采样SMA含义SparseMedium-rangeAttention稀疏中程注意力SGA含义SparseGlobalAttention稀疏全局注意力四、实验设计4.1 数据集覆盖12个数据集任务数据集规模类别数场景分类UCM2,100张21AID10,000张30NWPU-RESISC4531,500张45旋转目标检测DOTA 1.02,806张15DOTA 1.52,806张16DIOR-R23,463张20语义分割UAVid300张8LoveDA5,987张7变化检测LEVIR-CD637对2WHU-CD1对2CDD-CD11对2SYSU-CD20,000对24.2 训练配置分类任务从头训练300 epochAdamW优化器lr1e-4weight decay5e-2Cosine学习率衰减批量大小64检测任务ImageNet-1K预训练Oriented R-CNN检测器训练36 epoch分割任务UnetFormer作为分割头UAVid30 epochbatch size8LoveDA70 epochbatch size16五、实验结果5.1 场景分类性能LWGANet-L0表现1.72M参数NWPU95.49%超越StarNet S1 1.19%AID94.60%UCM98.57%GPU速度13,234 FPSLWGANet-L2表现13.0M参数NWPU96.17%新SOTAGPU速度3,308 FPS优于所有同等规模竞争者5.2 旋转目标检测DOTA 1.0测试集LWGANet-L279.02% mAP新SOTA超越PKINet-S78.39%参数更少29.2M vs 30.8M速度更快19.4 FPS vs 5.4 FPSDOTA 1.5测试集LWGANet-L272.91% mAP在所有16个类别上表现均衡5.3 语义分割UAVid测试集LWGANet-L269.1% mIoU超越ResNet18 1.3%在Moving Car和Human等困难类别表现最佳LoveDA测试集LWGANet-L253.6% mIoU新SOTA超越RSSFormer、LoveNAS等专用模型5.4 变化检测集成到A2Net解码器L0版本LEVIR-CD84.94% IoUWHU-CD90.24% IoU集成到CLAFA解码器L2版本在所有4个数据集上达到新SOTAWHU-CD提升1.18% IoU六、消融实验6.1 核心组件验证配置NWPU AccDOTA mAPLoveDA mIoULEVIR IoU仅RLA基线95.35%69.64%48.61%83.66%RLASMASGA95.83%70.56%48.80%83.10%全模型TGFI95.49%70.08%49.20%82.93%关键发现TGFI不仅降低空间冗余还显著加速LWGA模块FPS从6052提升至13,234四路径协同效果优于单一模块6.2 单模块对比实验在DOTA 1.0验证集上测试仅使用单一注意力类型的网络方法mAP特点仅GPA68.4%聚焦点状细节仅RLA70.3%局部纹理强仅SMA70.5%中等范围上下文仅SGA71.0%全局依赖LWGANet-L274.1%协同增强说明异构多路径设计产生协同效应而非简单叠加。七、创新点总结7.1 理论创新异构分组范式从同质化分组转向异构多尺度表征每个通道组专注特定尺度双冗余协同解决LWGA解决通道冗余TGFI解决空间冗余两者相辅相成7.2 技术创新阶段自适应全局注意力根据特征图大小动态调整全局建模策略非参数化稀疏采样TGFI使用简单的最大池化避免学习额外参数7.3 工程创新硬件友好设计使用标准PyTorch操作易于部署多平台高效在GPU、CPU、ARM上均保持高吞吐量八、局限性与未来工作8.1 已识别的局限架构自适应性当前设计为静态通道分配和超参数固定建议引入NAS学习最优配置实际部署效率异构操作可能产生执行开销建议算子融合、定制CUDA核心8.2 潜在扩展方向领域泛化该双冗余问题在数字病理学、高分辨率文档分析中同样存在动态架构自适应调整各路径的计算资源分配极致轻量化针对边缘设备的进一步优化九、关键洞察9.1 设计哲学功能专一化优于一刀切不同尺度目标需要不同的特征提取策略强制所有通道执行相同操作会导致资源浪费9.2 遥感特性利用显著性稀疏分布遥感图像中有效信息占比小TGFI通过Top-K采样充分利用这一特性9.3 工程与科学的平衡理论上创新异构分组实践上高效硬件友好通用性强4大任务12数据集十、总结评价优势✅问题定义清晰双冗余概念针对遥感图像特点 ✅方法设计合理LWGA和TGFI相互配合 ✅实验验证充分跨任务、跨数据集的广泛评估 ✅实用性强在多硬件平台保持高效 ✅可复现性好详细的实现细节和开源承诺潜在改进空间⚠️ 消融实验可增加统计显著性检验 ⚠️ 可探索自适应通道分配策略 ⚠️ 需进一步优化边缘设备部署学术价值该论文为遥感图像处理提供了新的架构设计范式其核心思想针对数据特性的专用路径设计对其他视觉领域也有启发意义。在轻量级网络设计中从如何压缩转向如何智能分配是一个重要的思路转变。