简记:Rich CNN-Transformer Feature Aggregation Networks for Super-Resolution

2022.4.29 更新:论文作者已经公开了源码,快去学习~ 地址:https://github.com/jinsuyoo/act

(至于我自己复现的程序就别抱期待了,复现的程序在分类数据集上效果不好,而且没有做预训练,拟合速度很慢。总之就是太菜了,没能复现好,能力还有待提升 _(:з」∠)_ 。我也去看源码学习去了)


Rich CNN-Transformer Feature Aggregation Networks for Super-Resolution

这篇文章提出了一个应对图像超分辨问题(super-resolution,SR)的模型 ACT ,文章于 2022年3月 提交在 arxiv 上,文章链接为:https://arxiv.org/abs/2203.07682,这篇文章对应的程序并未公开。我对其做了复现,由于我目前主要做分类问题,所以相比原结构会有所改动,复现的程序经过实验验证后会适时公开。

简要介绍

这篇文章提到:

  1. CNN 结构很难捕捉图像中长距离的依赖关系,因为卷积操作都是针对局部像素的。相反,Transformer 的结构很适合捕捉长距离依赖关系 [1]
  2. CNN 结构很难重建图像的弱纹理细节。文章的实验部分举了实际例子来说明 Transformer 更加擅长重建图像的弱纹理细节 [2]

这篇文章的主要贡献:

  • 介绍了一个混合了 CNN 和 ViT 结构的图像超分辨方法 ACT。
  • 提出了跨尺度块注意力(cross-scale token attention,CSTA)模块,用于有效利用多尺度的块表征信息(multi-scale token representations)。
  • 进行了广泛实验,证明了 ACT 模型在众多图像超分辨的实验基准中都具有优势。

模型结构

ACT-structure

整个模型整体由 Head,CNN branch,Transformer branch,Fusion Block,Tail 五个部分组成。其中,Head 用于提取图像的浅层特征;CNN branch 由多个残差卷积块(CNN Block)组成,用于提取 CNN 特征;Transformer branch 由多个 Transformer 自注意力模块(Transformer Block)组成,用于提取 Transformer 特征;Fusion Block 用于融合各层的 CNN 特征和 Transformer 特征;Tail 在本文中用于增加图像分辨率,重建图像,属于 decoder 部分。Head 和 Tail 与剩余组件互不干扰,可以很方便地替换成其他结构。

Head 和 Tail

这两部分的描述较为简单,Head 部分由两个残差卷积块组成,Tail 部分由 PixelShuffle 操作和卷积层组成(PixelShuffle 操作是一种特征图上采样的方式,其用途和反卷积、线性插值等方法相同)。公式表达为:

(1)F0=HHead(ILR)FDF=HBody(F0)+F0ISR=HTail(FDF)

其中, ILR 是输入的低分辨率(Low Resolution)的图像,ISR 是输出的超分辨(Super-Resolution)的图像,两者之间的是 CNN 分支和 Transformer 分支的操作,这里统称为主干部分 HBody ,主干部分是一个残差结构。F0 是 Head 处理得到的浅层特征,FDF 是双分支处理后的深层特征(Deep Feature)。

CNN branch

文章对于 CNN 分支的描述也比较简单,整个 CNN 分支由4个 CNN Block 连接而成,每个 CNN Block 由12个残差通道注意力模块(residual channel attention block,RCAB)堆叠而成。RCAB 模块是在 RCAN 这篇文章中提出来的,有对应的公开程序 [3]

Transformer Block (蓝色框)

将这篇文章的 Transformer Block 和 ViT 中原始的 Transformer Block 相对比,能够发现其不同之处在于:这里将两个原始block连接在一起作为一个整体,然后将第二个block的多头自注意力模块(MHSA)换成了这篇文章提出的跨尺度块注意力模块(CSTA)。

和原始 Transformer Block 相同的结构不再赘述,这里记录下 CSTA 模块的结构。

CSTA 模块

这个 CSTA 模块从论文提供的实现细节来看,是计算 3×36×6 两个 token 尺寸下的注意力。CSTA 会先把接收到的 n×d 特征分成两等份 n×d2 的特征(n 指token的数量,d 指特征的维度)。其中一份记作 Ts步骤1),对应较小的token尺寸,另一份通过重组得到 Tl(步骤2),对应更大的token尺寸。

步骤2:先将 n×d2 的特征按照 3×3 的token大小,还原成 w×h×c 的形式,这里的 wh 是指宽度和高度方向上的token数量,不是原图的宽度和高度(原图的宽度和高度是指像素数量),c 是通道数。然后再按照 6×6 的token大小,拆分成 n×d 的形式,这就得到了 Tl。 因为特征维度 dd2 不一致,所以还需要经过若干 MLP 将特征维度统一成 d2

这样便得到了两组 Q、K、V 用于计算注意力,即:qsRn×d2,ksRn×d2,vsRn×d2qlRn×d2,klRn×d2,vlRn×d2

步骤3:根据自注意力的计算公式, qs,kl,vl 之间计算注意力,得到加权后的特征为 n×d2 的形式。类似地, ql,ks,vs 之间会得到 n×d2 的特征。之后 n×d2 的特征经过若干 MLP 的处理,恢复到 n×d 的维度,以便重组恢复成 n×d2 的形式(重组方法和步骤2相同)。

如此一来,两个不同token尺寸的特征之间便完成了注意力的计算和特征的加权,这也就是这个模块跨尺度注意力的含义。两个加权后的特征均为 n×d2,在特征维度拼接一下,就恢复到了和模块的输入特征相同的尺寸( n×d ),很好地融合了 Transformer Block 中。

image-20220407145827088

Fusion Block (绿色框)

Transformer 特征和 CNN 特征的融合模块结构更为简单易懂,可以分成特征拼接(步骤1)、特征融合(步骤2)、特征拆分(步骤3)三个部分。整个融合模块是两进两出的状态。

image-20220407150629535

步骤1: Transformer 的特征格式是 n×d ,CNN 的特征格式是 c×h×w ,两者不一致,没办法做拼接。所以这里是先把 Transformer 的特征格式向 CNN 对齐,统一成 c×h×w 的格式,然后堆叠得到 2c×h×w 的特征图。

步骤2: 融合部分是用的 1×1 的卷积,特征维度保持不变,相当于只在通道维度上融合信息,同时采用了残差结构。

步骤3: 融合后的特征图是 MiR2c×h×w ,这时在通道维度上拆分成两等份,然后准备返回给 Transformer 的特征经过重组,回到 n×d 的形式。Transformer 特征和 CNN 特征在各自处理后分别返回到对应的分支。

值得一提的是, 最后一个融合模块是两进一出的,也就是步骤3不需要做拆分了,而是直接让 Mi 经过单层卷积后输出。

还有什么有意思的?

我觉得在 Head 之后 Transformer 分支之前的 tokenize 步骤值得记录下。这里的分块步骤和上面提到多次的重组步骤都是采用的相同的方法,可以用 torchFoldUnfold 方法实现,这在文章附录的伪代码里能看到。

这个步骤会联想到 Transformer 的分块步骤,虽然功能都是分块,但实现方式是不同的。Transformer 的分块操作是利用卷积层实现的,这里的 tokenize 由于已经有现成的特征图了,也就不需要卷积操作,直接重组即可。

文中提及的部分文献

[1] An image is worth 16×16 words: Transformers for image recognition at scale(ICLR 2021)

[2] Pre-Trained Image Processing Transformer(CVPR 2021)

[3] Image Super-Resolution Using Very Deep Residual Channel Attention Networks(ECCV 2018) (源码:https://github.com/yulunzhang/RCAN

 

3条评论

留下评论

您的邮箱地址不会被公开。 必填项已用 * 标注