基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在执行视频行人重识别任务时,传统基于局部的方法主要集中于具有特定预定义语义的区域学习局部特征表示,在复杂场景下的学习效率和鲁棒性较差.通过结合全局特征和局部特征提出一种基于时空关注区域的视频行人重识别方法.将跨帧聚合的关注区域特征与全局特征进行融合得到视频级特征表示,利用快慢网络中的两个路径分别提取全局特征和关注区域特征.在快路径中,利用多重空间关注模型提取关注区域特征,利用时间聚合模型聚合所有采样帧相同部位的关注区域特征.在慢路径中,利用卷积神经网络提取全局特征.在此基础上,使用亲和度矩阵和定位参数融合关注区域特征和全局特征.以平均欧氏距离评估融合损失,并将三重损失函数用于端到端网络训练.实验结果表明,该方法在PRID 2011数据集上Rank-1准确率达到93.4%,在MARS数据集上mAP达到79.5%,识别性能优于SeeForst、ASTPN、RQEN等方法,并且对光照、行人姿态变化和遮挡具有很好的鲁棒性.
推荐文章
基于残差网络的特征加权行人重识别研究
残差网络
行人重识别
特征加权
注意力机制
相似性度量
基于深度学习的行人重识别研究综述
行人重识别
监督学习
半监督学习
弱监督学习
无监督学习
基于时空关联度的视频车祸识别算法
车祸识别
视觉图像
时空关联
特征提取
识别精度
行人重识别现状与发展趋势研究
行人重识别
人脸识别
人工智能
认知水平
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于时空关注区域的视频行人重识别
来源期刊 计算机工程 学科
关键词 行人重识别 关注区域 时间聚合 全局特征 特征融合
年,卷(期) 2021,(6) 所属期刊栏目 图形图像处理|Graphics and Image Processing
研究方向 页码范围 277-283
页数 7页 分类号 TP391
字数 语种 中文
DOI 10.19678/j.issn.1000-3428.0057892
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (20)
共引文献  (4)
参考文献  (10)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1985(1)
  • 参考文献(0)
  • 二级参考文献(1)
1995(2)
  • 参考文献(0)
  • 二级参考文献(2)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
2002(1)
  • 参考文献(0)
  • 二级参考文献(1)
2004(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2006(1)
  • 参考文献(0)
  • 二级参考文献(1)
2009(2)
  • 参考文献(0)
  • 二级参考文献(2)
2011(4)
  • 参考文献(1)
  • 二级参考文献(3)
2012(2)
  • 参考文献(1)
  • 二级参考文献(1)
2013(1)
  • 参考文献(0)
  • 二级参考文献(1)
2014(1)
  • 参考文献(0)
  • 二级参考文献(1)
2016(2)
  • 参考文献(0)
  • 二级参考文献(2)
2017(2)
  • 参考文献(2)
  • 二级参考文献(0)
2018(3)
  • 参考文献(2)
  • 二级参考文献(1)
2019(4)
  • 参考文献(3)
  • 二级参考文献(1)
2020(1)
  • 参考文献(1)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
行人重识别
关注区域
时间聚合
全局特征
特征融合
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程
月刊
1000-3428
31-1289/TP
大16开
上海市桂林路418号
4-310
1975
chi
出版文献量(篇)
31987
总下载数(次)
53
论文1v1指导