基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
针对传统DQN算法下网联车驾驶行为决策的动作选择过程随机性强、探索空间大的问题,研究了结合专家知识和DQN算法的智能车辆决策框架,设计了奖励值函数来引导算法的训练.通过层次分析法(AHP)选取高速场景下车辆驾驶决策中的重要影响因素,利用ID3决策树构建简单而有效的专家规则库;在传统算法基础上,通过设计奖励值函数来优化DQN网络结构,由奖励值函数引导DQN算法来解决高速场景下的车辆决策问题,并在Python仿真环境中构建高速交通场景对该算法进行分析和验证.实验结果表明,在高速直道和并道场景下,达到95%成功率的平均训练次数分别减少了100次和200次,平均奖励值分别提高了4.02和1.34,有效加快了DQN算法的动作选择,降低了探索过程中的动作随机性.
推荐文章
基于模糊神经网络的自动驾驶决策系统研究
模糊神经网络
自动驾驶
控制决策
智能车辆驾驶行为决策方法研究
智能驾驶
行为决策
有限状态机
学习算法
探讨智能车辆驾驶行为决策方法
智能车辆
驾驶行为决策
强化学习
深度强化学习
DQN模型
从高空摄像中获取车辆瞬态信息和驾驶行为
交通冲突
图像处理
全信息匹配
亚像素估计
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于DQN的车辆驾驶行为决策方法
来源期刊 交通信息与安全 学科 交通运输
关键词 智能驾驶 强化学习 DQN算法 专家知识
年,卷(期) 2020,(5) 所属期刊栏目 交通信息工程与控制
研究方向 页码范围 67-77,112
页数 12页 分类号 U471.1
字数 语种 中文
DOI 10.3963/j.jssn.1674-4861.2020.05.008
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (57)
共引文献  (23)
参考文献  (10)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1999(1)
  • 参考文献(0)
  • 二级参考文献(1)
2000(2)
  • 参考文献(0)
  • 二级参考文献(2)
2002(1)
  • 参考文献(0)
  • 二级参考文献(1)
2004(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(3)
  • 参考文献(0)
  • 二级参考文献(3)
2007(3)
  • 参考文献(0)
  • 二级参考文献(3)
2008(2)
  • 参考文献(0)
  • 二级参考文献(2)
2009(3)
  • 参考文献(0)
  • 二级参考文献(3)
2010(4)
  • 参考文献(0)
  • 二级参考文献(4)
2011(4)
  • 参考文献(0)
  • 二级参考文献(4)
2012(4)
  • 参考文献(0)
  • 二级参考文献(4)
2013(3)
  • 参考文献(1)
  • 二级参考文献(2)
2014(5)
  • 参考文献(0)
  • 二级参考文献(5)
2015(4)
  • 参考文献(2)
  • 二级参考文献(2)
2016(7)
  • 参考文献(0)
  • 二级参考文献(7)
2017(12)
  • 参考文献(1)
  • 二级参考文献(11)
2018(2)
  • 参考文献(1)
  • 二级参考文献(1)
2019(5)
  • 参考文献(4)
  • 二级参考文献(1)
2020(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(1)
  • 参考文献(1)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
智能驾驶
强化学习
DQN算法
专家知识
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
交通信息与安全
双月刊
1674-4861
42-1781/U
大16开
武汉市武昌和平大道1178号
38-94
1983
chi
出版文献量(篇)
3739
总下载数(次)
14
总被引数(次)
29572
论文1v1指导