本文最后更新于:2025年6月5日 晚上
SuperPoint 是一种2D图像角点提取算法, 设计了一种自监督网络框架,能够同时提取特征点的位置以及描述子。相比于patch-based方法,本文提出的算法能够在原始图像提取到像素级精度的特征点的位置及其描述子。
简介
文章设计了一种自监督网络框架,能够同时提取特征点的位置以及描述子。相比于patch-based方法,本文提出的算法能够在原始图像提取到像素级精度的特征点的位置及其描述子。本文提出了一种单应性适应(Homographic Adaptation
)的策略以增强特征点的复检率以及跨域的实用性(这里跨域指的是synthetic-to-real的能力,网络模型在虚拟数据集上训练完成,同样也可以在真实场景下表现优异的能力)。
诸多应用(诸如SLAM/SfM/相机标定/立体匹配)的首要一步就是特征点提取,这里的特征点指的是能够在不同光照&不同视角下都能够稳定且可重复检测的2D图像点位置。
基于CNN的算法几乎在以图像作为输入的所有领域表现出相比于人类特征工程更加优秀的表达能力。目前已经有一些工作做类似的任务,例如人体位姿估计,目标检测以及室内布局估计等。这些算法以通常以大量的人工标注作为GT,这些精心设计的网络用来训练以得到人体上的角点,例如嘴唇的边缘点亦或人体的关节点,但是这里的问题是这里的点实际是ill-defined(我的理解是,这些点有可能是特征点,但仅仅是一个大概的位置,是特征点的子集,并没有真正的把特征点的概念定义清楚)。
本文采用了非人工监督的方法提取真实场景的特征点。本文设计了一个由特征点检测器监督的具有伪真值数据集,而非是大量的人工标记。为了得到伪真值,本文首先在大量的虚拟数据集上训练了一个全卷积网络(FCNN),这些虚拟数据集由一些基本图形组成,例如有线段、三角形、矩形和立方体等,这些基本图形具有没有争议的特征点位置,文中称这些特征点为MagicPoint
,这个pre-trained的检测器就是MagicPoint
检测器。这些MagicPoint
在虚拟场景的中检测特征点的性能明显优于传统方式,但是在真实的复杂场景中表现不佳,此时作者提出了一种多尺度多变换的方法Homographic Adaptation
。对于输入图像而言,Homographic Adaptation
通过对图像进行多次不同的尺度/角度变换来帮助网络能够在不同视角不同尺度观测到特征点。
综上:SuperPoint = MagicPoint+Homographic Adaptation
论文链接: https://arxiv.org/abs/1712.07629
算法优劣对比
- 基于图像块的算法导致特征点位置精度不够准确;
- 特征点与描述子分开进行训练导致运算资源的浪费,网络不够精简,实时性不足;或者仅仅训练特征点或者描述子的一种,不能用同一个网络进行联合训练;
网络结构
特征点检测器以及描述子网络共享一个单一的前向encoder,只是在decoder时采用了不同的结构,根据任务的不同学习不同的网络参数。这也是本框架与其他网络的不同之处:其他网络采用的是先训练好特征点检测网络,然后再去进行对特征点描述网络进行训练。
网络共分成以下4个主要部分:
1. Shared Encoder 共享的编码网络
从上图可以看到,整体而言,本质上有两个网络,只是前半部分共享了一部分而已。本文利用了 VGG-style 的 encoder 用于降低图像尺寸,encoder 包括卷积层,max-pooling 层,以及非线性激活层。通过3个 max-pooling 层将图像的尺寸变成 $H_c = H/8$ 和 $W_c = W/8$ ,经过 encoder 之后,图像由 $I \in \mathcal{R}^{H \times W} $变为张量 $\mathcal{B} \in \mathbb{R}^{H_c \times W_c \times F}$
2. Interest Point Decoder
这里介绍的是特征点的解码端。每个像素的经过该解码器的输出是该像素是特征点的概率(probability of “point-ness”)。通常而言,我们可以通过反卷积得到上采样的图像,但是这种操作会导致计算量的骤增以及会引入一种“checkerboard artifacts”。因此本文设计了一种带有“特定解码器”(这种解码器没有参数)的特征点检测头以减小模型计算量(子像素卷积)。
输入张量的维度是 $\mathbb{R}^{H_c \times W_c \times 65}$ ,输出维度 $\mathbb{R}^{H \times W} $,即图像的尺寸。这里的 65 表示原图 $8 \times 8$ 的局部区域,加上一个非特征点 dustbin
。通过在channel 维度上做 softmax,非特征点 dustbin 会被删除,同时会做一步图像的reshape
: $\mathbb{R}^{H_c \times W_c \times 64} \Rightarrow \mathbb{R}^{H \times W}$ (这就是**子像素卷积**的意思,俗称像素洗牌)
特征点解码端部分代码:
1
2
3
4
5
6
7
# Compute the dense keypoint scores
cPa = self.relu(self.convPa(x))
scores = self.convPb(cPa) # DIM: N x 65 x H/8 x W/8
scores = torch.nn.functional.softmax(scores, 1)[:, :-1] # DIM: N x 64 x H/8 x W/8
b, _, h, w = scores.shape
scores = scores.permute(0, 2, 3, 1).reshape(b, h, w, 8, 8) # DIM: N x H/8 x W/8 x 8 x 8
scores = scores.permute(0, 1, 3, 2, 4).reshape(b, h*8, w*8) # DIM: N x H x W
过程看似比较繁琐,但是这其实就是一个由depth to space
的过程,以 N=1 为例,上述过程如下图所示:
上图中所示的3个蓝色小块的就是对应的一个cell经过depth to space
后得到的,易知其尺寸是 8×8
注意 :这里解释一下为何此作者设置选择增加一个 dustbin 通道,以及为何先进行softmax再进行slice操作,先进行slice再进行softmax是否可行?(
scores = torch.nn.functional.softmax(scores, 1)[:,-1]
)
之所以要设置65个通道,这是因为算法要应对不存在特征点的情况。注意到之后的一步中使用了softmax,也就是说沿着通道维度把各个数值通过运算后加和为1。如果没有Dustbin通道,这里就会产生一个问题:若该cell处没有特征点,此时经过softmax后,每个通道上的响应就会出现受到噪声干扰造成异常随机,在随后的特征点选择一步中会将非特征点判定为特征,这个过程由下图左图所示。在添加Dustbin之后,在没有特征的情况下,只有在Dustbin通道的响应值很大,在后续的特征点判断阶段,此时该图像块的响应都很小,会成功判定为无特征点,这个过程由下图右图所示。
无 dustbin 通道,无特征时判定失败 ;有dustbin通道,有特征时候判定成功
上述过程中得到的 scores 就是图像上特征点的概率(或者叫做特征响应,后文中响应值即表示概率值),概率越大,该点越有可能是特征点。 之后作者进行了一步 nms,即非极大值抑制,随后选择回传值较大的值为特征点。
nms的效果如下,左图是未使用nms时score的样子,响应值极大的位置周围也聚集着响应较大的点,如果不进行nms,特征点将会很集中;右图是进行nms操作后的score,响应值极大的位置周围的响应为0。
nms对于避免特征点位置过于集中起到了比较大的作用:如nms半径大一点的化会使得特征点变得更加分散。
3. Descriptor Decoder
首先利用类似于UCN的网络得到一个半稠密的描述子(此处参考文献UCN),这样可以减少算法训练内存开销同时减少算法运行时间。之后通过双三次多项式插值得到其余描述,然后通过L2-normalizes
归一化描述子得到统一的长度描述。特征维度由 $D∈R^{H_c×W_c×D}$ 变为 $R^{H×W×D}$
由特征点得到其描述子的过程文中没有细讲,看了一下源代码就明白了。其实该过程主要用了一个函数即grid_sample
,画了一个草图作为解释。
- 图像尺寸归一化:首先对图像的尺寸进行归一化,(-1,-1)表示原来图像的(0,0)位置,(1,1)表示原来图像的(H-1,W-1)位置,这样一来,特征点的位置也被归一化到了相应的位置。
- 构建grid:将归一化后的特征点罗列起来,构成一个尺度为11K*2的张量,其中K表示特征数量,2分别表示xy坐标。
- 特征点位置反归一化:根据输入张量的H与W对grid(1,1,0,:)(表示第一个特征点,其余特征点类似)进行反归一化,其实就是按照比例进行缩放+平移,得到反归一化特征点在张量某个slice(通道)上的位置;但是这个位置可能并非为整像素,此时要对其进行双线性插值补齐,然后其余slice按照同样的方式进行双线性插值。注:代码中实际的就是双线性插值,并非文中讲的双三次插值;
- 输出维度:$1C1*K$。
4. loss function
$$ \begin{aligned}\mathcal{L}\left(\mathcal{X},\mathcal{X}^{\prime},\mathcal{D},\mathcal{D}^{\prime};Y,Y^{\prime},S\right)&=\mathcal{L}_p\left(\mathcal{X},Y\right)+\mathcal{L}_p\left(\mathcal{X}^{\prime},Y^{\prime}\right)+\lambda\mathcal{L}_d\left(\mathcal{D},\mathcal{D}^{\prime},S\right)\end{aligned} $$可见损失函数由两项组成,其中一项为特征点检测 loss Lp ,另外一项是描述子的 loss Ld 。对于检测项 loss,此时采用了交叉熵损失函数:
$$ \mathcal{L}_p(\mathcal{X},Y)=\frac{1}{H_cW_c}\sum_{\overset{h=1}{w=1}}^{H_c,W_c}l_p\left(\mathbf{x}_{hw};y_{hw}\right) $$ 其中: $$ l_{p}\left(\mathbf{x}_{h w} ; y\right)=-\log \left(\frac{\exp \left(\mathbf{x}_{h w y}\right)}{\sum_{k=1}^{65} \exp \left(\mathbf{x}_{h w k}\right)}\right) $$此时类似于一个分类任务, $\log$ 运算内部就是 cell 中元素为特征点的概率(即softmax
之后的值),即样本 $\mathbf{x}_{hw}$
属于特征的概率。这是一个2D location classifier,每个 $8x8$ 的范围内只能有一个特征点,即图像中最多有 $H \times W / 64$ 个 SuperPoint 特征点。
描述子的损失函数:
$$ \mathcal{L}_{d}\left(\mathcal{D}, \mathcal{D}^{\prime}, S\right)=\frac{1}{\left(H_{c} W_{c}\right)^{2}} \sum_{h=1 \atop w=1}^{H_{c}, W_{c}} \sum_{h^{\prime}=1 \atop w^{\prime}=1}^{H_{c}, W_{c}} l_{d}\left(\mathbf{d}_{h w}, \mathbf{d}_{h^{\prime} w^{\prime}}^{\prime} ; s_{h w h^{\prime} w^{\prime}}\right) $$其中 $l_d$ 为Hinge-loss
(合页损失函数,用于SVM,如支持向量的软间隔,可以保证最后解的稀疏性);
$$
l_{d}\left(\mathbf{d}, \mathbf{d}^{\prime} ; s\right)=\lambda_{d} * s * \max \left(0, m_{p}-\mathbf{d}^{T} \mathbf{d}^{\prime}\right)+(1-s) * \max \left(0, \mathbf{d}^{T} \mathbf{d}^{\prime}-m_{n}\right)
$$
指示函数为 $s_{h w h^{\prime} w^{\prime}}$ , S 表示所有正确匹配对集合:
上式中的 $\mathbf{p}$ 是cell的中心点坐标, $\mathcal{H} \mathbf{p} $ 与 $mathbf{p}^{\prime}$ 的距离小于 8 个 pixel 的认为是正确的匹配,这其实对应于cell上的的1个pixel。
让我们仔细看一下这个损失函数,这其实是一个Double margin Siamese loss
。当正例描述子余弦相似度 $\mathbf{d}T\mathbf{d}{\prime} $ 大于 $m_p$ 时,此时不需要惩罚;但如果该相似度较小时,此时就要惩罚了;负样本时我们的目标是让 $\mathbf{d}T\mathbf{d}{\prime}$ 变小,但网络性能不佳时可能这个值很大(大于上式中的 $m_n$ ),此时要惩罚这种现象,网络权重经过调整后使得该 loss 降低,对应的描述子相似度降低;
网络训练
本文一共设计了两个网络,一个是BaseDetector
,用于检测角点(注意,此处提取的并不是最终输出的特征点,可以理解为候选的特征点),另一个是SuperPoint
网络,输出特征点和描述子。
网络的训练共分为三个步骤:
- 第一步是采用虚拟的三维物体作为数据集,训练网络去提取角点,这里得到的是
BaseDetector
即,MagicPoint
; - 使用真实场景图片,用第一步训练出来的网络
MagicPoint
+Homographic Adaptation
提取角点(这一步迭代使用1-2次效果就可以非常棒),这一步称作兴趣点自标注(Interest Point Self-Labeling) - 对第二步使用的图片进行几何变换(即单应变换)得到新的图片,这样就有了已知位姿关系的图片对,把这两张图片输入SuperPoint网络,提取特征点和描述子。
这里需要注意的是,联合训练使用的单应变换相较于Homographic Adaptation
中设置的单应变换更加严格,即没有特别离谱的in-plane的旋转。作者在论文中提到,这是由于在HPatches数据集中没有这样的数据才进行这种设置,原话是“we avoid sampling extreme in-plane rotations as they are rarely seen in HPatches”,这也是为什么SuperPoint无法有效地应对in-plane rotations的原因。
预训练Magic Point
此处参考作者之前发表的一篇论文**[Toward Geometric Deep SLAM]**,其实就是MagicPoint
,它仅仅保留了SuperPoint的主干网络以及特征点解码端,即SuperPoint的检测端就是MagicPoint。
Homographic Adaptation
算法在虚拟数据集上表现极其优秀,但是在真实场景下表示没有达到预期,此时本文进行了Homographic Adaptation
。
作者使用的数据集是MS-COCO
,为了使网络的泛化能力更强,本文不仅使用原始了原始图片,而且对每张图片进行随机的旋转和缩放形成新的图片,新的图片也被用来进行识别。这一步其实就类似于训练里常用的数据增强。经过一系列的单应变换之后特征点的复检率以及普适性得以增强。值得注意的是,在实际训练时,这里采用了迭代使用单应变换的方式,例如使用优化后的特征点检测器重新进行单应变换进行训练,然后又可以得到更新后的检测器,如此迭代优化,这就是所谓的self-supervisd。
最后的关键点检测器,即 $\hat{F}\left(I ; f_{\theta}\right) $,可以表示为再所有随机单应变换/反变换的聚合:
$$ \hat{F}\left(I ; f_{\theta}\right)=\frac{1}{N_{h}} \sum_{i=1}^{N_{h}} \mathcal{H}_{i}^{-1} f_{\theta}\left(\mathcal{H}_{i}(I)\right) $$构建残差,迭代优化描述子以及检测器
利用上面网络得到的关键点位置以及描述子表示构建残差,利用ADAM
进行优化。
实验结果
代码
以下给出的是Sarlin在SuperGlue代码中重构的SuperPoint前向推理代码,与Daniel于2018年的原始版本有些差异。不过Sarlin的版本与原版结果几乎一致,另外增加多batch的支持,执行效率更高。
1 |
|
Demo 仓库
原始论文
参考资料
- https://arxiv.org/abs/1712.07629
- https://blog.51cto.com/u_14439393/5732265
- https://zhuanlan.zhihu.com/p/493508830
- https://medium.com/@gary90144job/superpoint-self-supervised-interest-point-detection-and-description-研究紀錄-ba40f4c1737b
- https://github.com/magicleap/SuperPointPretrainedNetwork
文章链接:
https://www.zywvvd.com/notes/study/image-processing/feature-extraction/super-point/super-point/
“觉得不错的话,给点打赏吧 ୧(๑•̀⌄•́๑)૭”

微信支付

支付宝支付