基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
为了解决由于视觉传感器视角单一、光线条件复杂导致的空间机械臂作业中相似目标识别较差的问题,提出一种基于CNN-GRU的视触融合目标识别系统.系统由机械臂、灵巧手和视觉传感器构成,实现了对目标物视觉和触觉信息的自主采样,并通过CNN-GRU网络提取视觉信息的空间特征和触觉信息的时序特征,有效利用多模态信息,提高目标识别的准确率.实验结果表明:在14种物品分类实验中准确率为97.8%,对比单一视觉CNN-V和触觉GRU-T网络分别提升16.3%和15.8%;同时,CNN-GRU在准确率和预测速度上明显优于传统最邻近算法和支持向量机算法.
推荐文章
基于G2的数据融合与目标识别系统
数据融合
D-S证据理论
目标识别
神经网络
毫米波敏感器目标识别系统设计
信号处理
SoC
FPGA
目标识别
SAR图像自动目标识别系统研究与设计
SAR 图像
目标检测
图像处理
目标识别
水下机器人光视觉目标识别系统
自土式水下机器人(AUV)
光视觉
特征提取
免疫遗传神经网络
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 面向空间机械臂的视触融合目标识别系统
来源期刊 载人航天 学科 工学
关键词 空间机械臂 视触融合 神经网络 目标识别 灵巧手
年,卷(期) 2022,(2) 所属期刊栏目 工程技术|ENGINEERING TECHNOLOGY
研究方向 页码范围 213-222
页数 10页 分类号 TP241|TP391|V19
字数 语种 中文
DOI 10.3969/j.issn.1674-5825.2022.02.011
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2022(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
空间机械臂
视触融合
神经网络
目标识别
灵巧手
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
载人航天
双月刊
1674-5825
11-5008/V
大16开
北京海淀区圆明园西路1号院
2-740
2003
chi
出版文献量(篇)
1268
总下载数(次)
0
总被引数(次)
3592
论文1v1指导