作者:
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
常规方法定义机器人避障奖赏函数时,仅在机器人到达目标位置后给出奖励,避障奖励稀疏,导致避障路径规划时间和长度较长、规划成功率较低.提出基于深度强化学习的工业机器人避障路径规划方法.利用传感器,探测机器人与障碍物和目标点之间的距离方位,构成状态空间,定义机器人避障决策奖赏函数,包括机器人与目标点的方位奖赏、距离奖赏、到达奖赏、每个避障动作奖赏,将状态空间信息输入神经网络,通过深度强化学习,输出下一时刻奖赏值最大的避障动作,形成最优避障路径.选择工厂厂房作为测试环境,改变障碍物数量和位置,布置工业机器人移动的简单场景和复杂场景,实验结果表明,设计方法减少了避障路径规划时间和长度,提高了规划成功率.
推荐文章
基于强化学习的爬壁机器人路径规划方法
爬壁机器人
路径规划
强化学习
收敛性
基于强化学习的智能机器人避碰方法研究
强化学习
智能机器人
避碰
仓储物流机器人集群避障及协同路径规划方法
智能仓储
机器人集群
交通规则
预约表
改进Q-Learning算法
协同路径规划
基于势场法的移动机器人避障路径规划
移动机器人
势场法
避障
路径规划
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于深度强化学习的工业机器人避障路径规划方法
来源期刊 制造业自动化 学科 工学
关键词 深度强化学习 工业机器人 避障路径 距离方位 奖赏函数 BP神经网络
年,卷(期) 2022,(1) 所属期刊栏目 机器人技术
研究方向 页码范围 127-130
页数 4页 分类号 TP391.9
字数 语种 中文
DOI 10.3969/j.issn.1009-0134.2022.01.029
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2022(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深度强化学习
工业机器人
避障路径
距离方位
奖赏函数
BP神经网络
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
制造业自动化
月刊
1009-0134
11-4389/TP
大16开
北京德胜门外教场口1号
2-324
1979
chi
出版文献量(篇)
12053
总下载数(次)
12
论文1v1指导