基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
循环神经网络语言模型能够克服统计语言模型中存在的数据稀疏问题,同时具有更强的长距离约束能力,是一种重要的语言模型建模方法。但在语音解码时,由于该模型使词图的扩展次数过多,造成搜索空间过大而难以使用。本文提出了一种基于循环神经网络语言模型的N‐best重打分算法,利用N‐best引入循环神经网络语言模型概率得分,对识别结果进行重排序,并引入缓存模型对解码过程进行优化,得到最优的识别结果。实验结果表明,本文方法能够有效降低语音识别系统的词错误率。
推荐文章
基于LSTM RNNLM的N-best重打分算法
LSTM
递归神经网络
语言模型
N-best重打分
基于联想记忆神经网络模型的BP算法
BP算法
神经网络
联想记忆
基于叠层循环神经网络的语义关系分类模型
叠层循环神经网络
多句法结构
Bi-Tree-LSTM
注意力机制
关系分类
基于改进遗传算法的神经网络集成模型
遗传算法
神经网络集成
自适应交叉概率
自适应变异概率
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于循环神经网络语言模型的N-bes t重打分算法
来源期刊 数据采集与处理 学科 工学
关键词 语音识别 语言模型 循环神经网络 N-best重打分 缓存语言模型
年,卷(期) 2016,(2) 所属期刊栏目
研究方向 页码范围 347-354
页数 8页 分类号 TP391
字数 6299字 语种 中文
DOI 10.16337/j.1004-9037.2016.02.015
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 屈丹 解放军信息工程大学信息系统工程学院 48 205 7.0 12.0
2 张剑 解放军信息工程大学信息系统工程学院 22 52 4.0 5.0
3 李真 解放军信息工程大学信息系统工程学院 1 4 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (1)
共引文献  (3)
参考文献  (6)
节点文献
引证文献  (4)
同被引文献  (12)
二级引证文献  (16)
2000(1)
  • 参考文献(1)
  • 二级参考文献(0)
2003(1)
  • 参考文献(1)
  • 二级参考文献(0)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2007(1)
  • 参考文献(1)
  • 二级参考文献(0)
2009(1)
  • 参考文献(1)
  • 二级参考文献(0)
2012(1)
  • 参考文献(1)
  • 二级参考文献(0)
2013(1)
  • 参考文献(1)
  • 二级参考文献(0)
2016(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2017(4)
  • 引证文献(3)
  • 二级引证文献(1)
2018(10)
  • 引证文献(1)
  • 二级引证文献(9)
2019(3)
  • 引证文献(0)
  • 二级引证文献(3)
2020(3)
  • 引证文献(0)
  • 二级引证文献(3)
研究主题发展历程
节点文献
语音识别
语言模型
循环神经网络
N-best重打分
缓存语言模型
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
数据采集与处理
双月刊
1004-9037
32-1367/TN
大16开
南京市御道街29号1016信箱
28-235
1986
chi
出版文献量(篇)
3235
总下载数(次)
7
总被引数(次)
25271
论文1v1指导