💡💡💡问题点:基于CNN的方法由于卷积操作的固有局限性,难以有效捕捉全局上下文信息;而基于Transformer的方法则存在局部特征建模不足的问题,同时面临自注意力机制带来的高计算复杂度挑战。
💡💡💡引入多尺度线性注意力机制,旨在以低计算复杂度高效提取图像中的多尺度特征,同时建模长程依赖关系;
多尺度线性注意力机制(MSLA)包含两个主要操作流程:多尺度特征提取和线性注意力计算。前者通过捕获多尺度局部结构细节来提升分割性能,后者利用具有近似全局感受野的线性注意力机制(其感受野与Softmax注意力机制相近)来建模长程依赖关系,同时显著提升计算效率
💡💡