基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
持续集成环境下的测试存在测试用例集变化大、测试时间有限和快速反馈等需求,传统的测试优化方法难以适用.强化学习是机器学习的一个重要分支,其本质是解决序贯决策问题,可以用于持续集成测试优化.但现有的基于强化学习的方法中,奖励函数计算只包括测试用例在当前集成周期的执行信息.从奖励函数设计和奖励策略两个方面开展研究.在奖励函数设计方面,采用测试用例的完整历史执行信息替代当前执行信息,综合考虑测试用例历史失效总次数和历史失效分布信息,提出了两种奖励函数.在奖励策略方面,提出对当前执行序列的测试用例整体奖励和仅对失效测试用例的部分奖励两种策略.在3个工业级被测程序进行实验研究,结果表明:(1)与现有方法相比,所提出的基于完整历史执行信息奖励函数的强化学习方法可以大幅度提高持续集成测试序列的检错能力;(2)测试用例历史失效分布有助于发现潜在失效的测试用例,对强化学习奖励函数的设计更加重要;(3)整体奖励与部分奖励两种奖励策略受到被测程序的多种因素影响,需要根据实际情况具体选择;(4)包含历史信息的奖励函数会增加时间消耗,但并不影响测试效率.
推荐文章
基于持续集成的软件度量
软件度量
持续集成
静态检查
软件版本
集成构建
基于容器的持续集成和部署方法研究
持续集成
持续部署
流水线
容器
自动化测试
基于SVN的应用软件持续集成
持续集成
ICP-CI
ICP-CI服务器
构建
SVN
深度强化学习复原多目标航迹的TOC奖励函数
深度强化学习
序贯决策
Q函数
轨迹密切圆
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 面向持续集成测试优化的强化学习奖励机制
来源期刊 软件学报 学科 工学
关键词 持续集成测试 测试用例优先排序 测试用例历史执行信息 强化学习 奖励函数
年,卷(期) 2019,(5) 所属期刊栏目 智能化软件新技术专刊
研究方向 页码范围 1438-1449
页数 12页 分类号 TP311
字数 11223字 语种 中文
DOI 10.13328/j.cnki.jos.005714
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 赵瑞莲 北京化工大学信息科学与技术学院 49 470 12.0 20.0
2 李征 北京化工大学信息科学与技术学院 23 151 8.0 11.0
3 何柳柳 北京化工大学信息科学与技术学院 2 1 1.0 1.0
4 杨羊 北京化工大学信息科学与技术学院 2 1 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (8)
共引文献  (3)
参考文献  (5)
节点文献
引证文献  (1)
同被引文献  (2)
二级引证文献  (0)
1994(2)
  • 参考文献(0)
  • 二级参考文献(2)
2001(1)
  • 参考文献(1)
  • 二级参考文献(0)
2007(3)
  • 参考文献(1)
  • 二级参考文献(2)
2009(1)
  • 参考文献(0)
  • 二级参考文献(1)
2010(1)
  • 参考文献(0)
  • 二级参考文献(1)
2012(2)
  • 参考文献(1)
  • 二级参考文献(1)
2013(1)
  • 参考文献(0)
  • 二级参考文献(1)
2016(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2020(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
持续集成测试
测试用例优先排序
测试用例历史执行信息
强化学习
奖励函数
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
软件学报
月刊
1000-9825
11-2560/TP
16开
北京8718信箱
82-367
1990
chi
出版文献量(篇)
5820
总下载数(次)
36
总被引数(次)
226394
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导