基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
循环神经网络(RNN)是一类非常强大的用于处理和预测序列数据的神经网络模型.循环结构的神经网络克服了传统机器学习方法对输入和输出数据的许多限制,使其成为深度学习领域中一类非常重要的模型.RNN及其变体网络已经被成功应用于多种任务,尤其是当数据中存在一定时间依赖性的时候.语音识别、机器翻译、语言模型、文本分类、词向量生成、信息检索等,都需要一个模型能够将具有序列性质的数据作为输入进行学习;然而,RNN通常难以训练,循环多次之后,大多数情况下梯度往往倾向于消失,也有较少情况会发生梯度爆炸的问题.针对RNN在实际应用中存在的问题,长短期记忆(LSTM)网络被提出,它能够保持信息的长期存储而备受关注,关于LSTM结构的改进工作也陆续出现.然后,主要针对循环结构的神经网络的发展进行详细阐述,对目前流行的几种变体模型进行详细的讨论和对比.最后,对循环结构的神经网络的发展趋势进行了探讨.
推荐文章
可拓神经网络研究综述
可拓学
神经网络
可拓神经网络
算法分析
可拓距离
小脑模型神经网络研究和发展综述
小脑模型
模糊小脑模型
入侵检测系统
杂散编码
模糊神经网络技术综述
模糊逻辑
神经网络
综述
神经网络模型压缩方法综述
神经网络
模型压缩
矩阵分解
参数共享
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 循环神经网络研究综述
来源期刊 计算机应用 学科 工学
关键词 循环神经网络 长短期记忆网络 深度学习 神经网络 序列数据
年,卷(期) 2018,(z2) 所属期刊栏目 人工智能
研究方向 页码范围 1-6,26
页数 7页 分类号 TP18
字数 7423字 语种 中文
DOI
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 杨丽 同济大学电子与信息工程学院 41 443 9.0 20.0
2 王俊丽 同济大学电子与信息工程学院 15 290 6.0 15.0
3 刘义理 同济大学经济与管理学院 12 218 7.0 12.0
4 吴雨茜 同济大学电子与信息工程学院 2 65 2.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (11)
共引文献  (51)
参考文献  (18)
节点文献
引证文献  (62)
同被引文献  (73)
二级引证文献  (2)
1990(1)
  • 参考文献(1)
  • 二级参考文献(0)
1994(2)
  • 参考文献(1)
  • 二级参考文献(1)
1997(2)
  • 参考文献(2)
  • 二级参考文献(0)
2000(1)
  • 参考文献(1)
  • 二级参考文献(0)
2003(2)
  • 参考文献(1)
  • 二级参考文献(1)
2005(1)
  • 参考文献(1)
  • 二级参考文献(0)
2007(3)
  • 参考文献(0)
  • 二级参考文献(3)
2009(1)
  • 参考文献(0)
  • 二级参考文献(1)
2010(2)
  • 参考文献(0)
  • 二级参考文献(2)
2011(1)
  • 参考文献(0)
  • 二级参考文献(1)
2012(1)
  • 参考文献(0)
  • 二级参考文献(1)
2015(1)
  • 参考文献(1)
  • 二级参考文献(0)
2016(3)
  • 参考文献(2)
  • 二级参考文献(1)
2017(5)
  • 参考文献(5)
  • 二级参考文献(0)
2018(3)
  • 参考文献(3)
  • 二级参考文献(0)
2018(3)
  • 参考文献(3)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2019(37)
  • 引证文献(36)
  • 二级引证文献(1)
2020(27)
  • 引证文献(26)
  • 二级引证文献(1)
研究主题发展历程
节点文献
循环神经网络
长短期记忆网络
深度学习
神经网络
序列数据
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机应用
月刊
1001-9081
51-1307/TP
大16开
成都237信箱
62-110
1981
chi
出版文献量(篇)
20189
总下载数(次)
40
总被引数(次)
209512
论文1v1指导