Simplestory's Blog

RCNN

经典目标检测识别算法

Word count: 1kReading time: 3 min
2019/09/19

目标识别是比单一的图像识别要复杂得多,算法模型要识别出图片哪里有哪些目标并将其框出来。Ross Girshick大神提出了一种利用卷积神经网络加上支持向量机的算法模型用于目标检测。下面是对这个经典模型进行的简单解析。

基础结构

首先是目标定位问题,作者通过区域识别的方法来解决,这里采用的是selective search。即从图片中框选出候选区域参加后续模型的训练。其次是训练数据稀疏的问题,论文提出了在一个大的辅助数据集中有监督的预训练,之后在一个小数据集中进行特定部分的微调。实验结果也证实了这种方法是有效的。大致结构如下:

主要有三个组成部分:

  • 生成与类别无关的候选区域;
  • 用来从每一个区域中提取固定长度的特征向量的卷积网络;
  • 一组特定于类的线性SVM

模块设计

在选择候选区域方面,有许多种实现方法,例如objectnessselective searchcategoryindependent object proposal等。作者选择了selective search,这里不得不说RCNN对于候选框的提出方法是不太合理的,因为selective search方法实在太慢了,严重拖慢了模型的速度。特征提取方面,作者使用CNN从每个候选框区域中提取出固定长度的特征。首先将候选区域周围紧密边界框的所有像素扭曲到到适合CNN网络的输入尺寸,在此前,作者扩展了紧密边界框以便在扭曲的尺寸上,原始周围的扭曲图像上下文恰有足够的像素框。在识别阶段,经过SVM得到各个候选框分数后再用贪婪的非极大值抑制(NMS)对结果进行整合。考虑到训练数据过大,作者还采用了标准的难分样本挖掘来对模型性能进行提升。

模型的训练过程也分为三部分:

  • CNN微调
  • SVM训练
  • 边界框回归训练

由于前面两个的训练基本上都跟以往一样,就不细说了,这里主要提一下边界框回归训练。

这一部分的输入是N个训练数据对{(Pi,Gi)}i=1,,N,其中Pi=(Pxi,Pyi,Pwi,Phi)表示候选框中心的像素坐标以及候选框的长宽信息,同理G=(Gx,Gy,Gw,Gh)对应真实对象边界框信息。我们的目标是学习一个候选框P到真实边界框G的映射。定义四个变量dx(P)dy(P)dw(P)dh(P),前两个指定P的边界框中心的尺度不变的平移,后两个指定P的边界框的宽度和高度的对数空间上的平移。则候选框P与预测的目标框G^的映射可以表示为:

G^x=Pwdx(P)+PxG^y=Phdy(P)+PyG^w=Pwexp(dw(P))G^h=Phexp(dh(P))

可以把它看成线性回归问题,则每个dx(P)dy(P)dw(P)dh(P)都是由来自卷积网络候选框池化层的特征向量ϕ(P)建模成的,即有:

d(P)=wTϕ(P)

其中w是模型的参数,可以通过正则化最小二乘目标(岭回归)来学习:

w=argmaxw^iN(tiw^Tϕ(Pi))2+λ||w^||2

对于本文,回归目标t定义为:

tx=(GxPx)/Pwty=(GyPy)/Phtw=log(Gw/Pw)th=log(Gh/Ph)

即输入ϕ后,利用(tx,ty,tw,th)来修正候选框位置。

致谢

本文参考自以下论文:

Region-based Convolutional Networks for Accurate Object Detection and Segmentation

Comments
  • Latest
  • Oldest
  • Hottest
Powered by Waline v2.15.8