原文服务方: 机器人       
摘要:
传统的视觉位置识别(VPR)方法通常使用基于图像帧的相机,存在剧烈光照变化、快速运动等易导致VPR失败的问题。针对上述问题,本文提出了一种使用事件相机的端到端VPR网络,可以在具有挑战性的环境中实现良好的VPR性能。所提出算法的核心思想是,首先采用事件脉冲张量(EST)体素网格对事件流进行表征,然后利用深度残差网络进行特征提取,最后采用改进的局部聚合描述子向量(VLAD)网络进行特征聚合,最终实现基于事件流的端到端VPR。将该方法在基于事件的驾驶数据集(MVSEC、DDD17)和人工合成的事件流数据集(Oxford RobotCar)上与典型的基于图像帧的视觉位置识别方法进行了比较实验。结果表明,在具有挑战性的场景(例如夜晚场景)中,本文方法的性能优于基于图像帧的视觉位置识别方法,其Recall@1指标提升约6.61%。据我们所知,针对视觉位置识别任务,这是首个直接处理事件流数据的端到端弱监督深度网络架构。
推荐文章
基于软件定义网络的触觉互联网端到端系统
5G
软件定义网络
触觉互联网
移动边缘计算
加密MANET端到端流的推断与识别研究
端到端流识别
时序匹配
关联分析
流追踪
无线传感器网络中基于非端到端的区分队列服务
无线传感器网络
事件服务质量
区分队列服务
基于统计网络演算的端到端时延上界研究
融合网络
统计网络演算
GPS调度系统
自相关特性
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于事件的端到端视觉位置识别弱监督网络架构
来源期刊 机器人 学科 工学
关键词 视觉位置识别(VPR) 事件相机 事件脉冲张量(EST) 深度残差网络 三元组排序损失
年,卷(期) 2022,(5) 所属期刊栏目 论文与报告
研究方向 页码范围 613-625
页数 12页 分类号 TP24
字数 语种 中文
DOI 10.13973/j.cnki.robot.210303
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2022(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
视觉位置识别(VPR)
事件相机
事件脉冲张量(EST)
深度残差网络
三元组排序损失
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
机器人
双月刊
1002-0446
21-1137/TP
大16开
1979-01-01
chi
出版文献量(篇)
2337
总下载数(次)
0
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导