基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
首先采用长短时记忆单元替换递归神经网络隐含层中的神经元,避免梯度消失问题.其次将LSTM RNNLM应用在二次解码过程中.在语音解码时,递归神经网络语言模型使Lattice的扩展次数过多,导致搜索空间太大而影响搜索速度,因此Lattice不适宜引入高级语言模型进行重打分.相比之下,N-best的线性结构更适合引入包含长距离信息的模型,因此采用N-best进行LSTM RNNLM重打分,并对识别结果进行重排序.最后在Penn Treebank语料库和WSJ语料库上分别进行困惑度和连续语音识别实验.实验表明该方法有效降低语言模型的困惑度,提高连续语音识别系统的性能.
推荐文章
基于汉语语音音节特点的N-Best改进算法
汉语语音识别
N-Best算法
连续语音识别
搜索算法
基于循环神经网络语言模型的N-bes t重打分算法
语音识别
语言模型
循环神经网络
N-best重打分
缓存语言模型
基于N-best策略的军事资源匹配方法
决策空间理论
反馈策略
任务完成精度
最佳算法
利用不匹配帧比例加权N-Best候选的置信度方法
N-Best
置信度
不匹配帧
驻留归一化
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于LSTM RNNLM的N-best重打分算法
来源期刊 信息工程大学学报 学科 工学
关键词 LSTM 递归神经网络 语言模型 N-best重打分
年,卷(期) 2017,(4) 所属期刊栏目 信息处理技术
研究方向 页码范围 419-425
页数 7页 分类号 TP391
字数 6517字 语种 中文
DOI 10.3969/j.issn.1671-0673.2017.04.008
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 张文林 16 77 5.0 8.0
2 屈丹 23 52 4.0 6.0
3 李华 1 5 1.0 1.0
4 范正光 2 5 1.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (3)
节点文献
引证文献  (5)
同被引文献  (9)
二级引证文献  (0)
2003(1)
  • 参考文献(1)
  • 二级参考文献(0)
2014(1)
  • 参考文献(1)
  • 二级参考文献(0)
2015(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2019(4)
  • 引证文献(4)
  • 二级引证文献(0)
2020(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
LSTM
递归神经网络
语言模型
N-best重打分
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
信息工程大学学报
双月刊
1671-0673
41-1196/N
大16开
郑州市科学大道62号
2000
chi
出版文献量(篇)
2792
总下载数(次)
2
总被引数(次)
9088
论文1v1指导