基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
传统神经程序解释器NPI(Neural Programmer-interpreters)存在运算性能较低的问题,为了提升人工智能自动编码中训练速度,平均损失等性能,在传统神经程序解释器基础上,对其进行重构,通过采用GRU(Gated recurrent unit)为核心计算模块,引入基于枚举的程序空间搜索技术,并使用AMSGrad收敛算法改进神经程序解释器.使得重构后的神经程序解释器在训练速度上相较重构前提升了33%,在平均损失率方面下降了28%.重构后神经程序解释器运算性能方面有较大提升.
推荐文章
基于PSO算法优化GRU神经网络的短期负荷预测
短期负荷预测
门控循环单元
GRU神经网络
粒子群优化
预测精度
基于GRU神经网络的测井曲线重构
测井曲线重构
深度学习
门控循环单元神经网络
多元回归分析
几个常用解释器的性能分析
解释器
虚拟机
虚拟命令
涂胶机数控程序解释器解释程序的开发
涂胶机
数控程序解释器
解释过程
扩展指令集程序设计
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 GRU:神经程序解释器性能优化
来源期刊 哈尔滨商业大学学报(自然科学版) 学科 工学
关键词 人工智能 神经程序解释器 长短期记忆单元 门循环单元 AMSGrad算法 枚举搜索
年,卷(期) 2019,(3) 所属期刊栏目 计算机与信息工程
研究方向 页码范围 327-331
页数 5页 分类号 TP389.1
字数 3110字 语种 中文
DOI 10.3969/j.issn.1672-0946.2019.03.016
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 陈瀚宁 天津工业大学计算机科学与软件学院 7 31 2.0 5.0
2 汪权 天津工业大学计算机科学与软件学院 1 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
人工智能
神经程序解释器
长短期记忆单元
门循环单元
AMSGrad算法
枚举搜索
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
哈尔滨商业大学学报(自然科学版)
双月刊
1672-0946
23-1497/N
大16开
哈尔滨市道里区通达街138号
1980
chi
出版文献量(篇)
3911
总下载数(次)
16
总被引数(次)
20147
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导