摘要:
目的 人体目标再识别的任务是匹配不同摄像机在不同时间、地点拍摄的人体目标.受光照条件、背景、遮挡、视角和姿态等因素影响,不同摄相机下的同一目标表观差异较大.目前研究主要集中在特征表示和度量学习两方面.很多度量学习方法在人体目标再识别问题上了取得了较好的效果,但对于多样化的数据集,单一的全局度量很难适应差异化的特征.对此,有研究者提出了局部度量学习,但这些方法通常需要求解复杂的凸优化问题,计算繁琐.方法 利用局部度量学习思想,结合近几年提出的XQDA (cross-view quadratic discriminant analysis)和MLAPG (metric learning by accelerated proximal gradient)等全局度量学习方法,提出了一种整合全局和局部度量学习框架.利用高斯混合模型对训练样本进行聚类,在每个聚类内分别进行局部度量学习;同时在全部训练样本集上进行全局度量学习.对于测试样本,根据样本在高斯混合模型各个成分下的后验概率将局部和全局度量矩阵加权结合,作为衡量相似性的依据.特别地,对于MLAPG算法,利用样本在各个高斯成分下的后验概率,改进目标损失函数中不同样本的损失权重,进一步提高该方法的性能.结果 在VIPeR、PRID 450S和QMUL GRID数据集上的实验结果验证了提出的整合全局—局部度量学习方法的有效性.相比于XQDA和MLAPG等全局方法,在VI-PeR数据集上的匹配准确率提高2.0%左右,在其他数据集上的性能也有不同程度的提高.另外,利用不同的特征表示对提出的方法进行实验验证,相比于全局方法,匹配准确率提高1.3%~3.4%左右.结论 有效地整合了全局和局部度量学习方法,既能对多种全局度量学习算法的性能做出改进,又能避免局部度量学习算法复杂的计算过程.实验结果表明,对于使用不同的特征表示,提出的整合全局—局部度量学习框架均可对全局度量学习方法做出改进.