基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
将卷积神经网络(convolutional neural networks,CNN)声学模型应用于中文大词表连续电话语音识别任务中,分析了卷积层数、滤波器参数等变量对CNN模型性能的影响,最终在中文电话语音识别测试中,CNN模型相比传统的全连接神经网络模型取得了识别字错误率1.2%的下降.由于卷积结构的复杂性,常规的神经网络加速方法如定点量化和SSE指令加速等方法对卷积运算的加速效率较低.针对这种情况,对卷积结构进行了优化,提出了2种卷积矢量化方法:权值矩阵矢量化和输入矩阵矢量化对卷积运算进行改善.结果表明,输入矩阵矢量化方法的加速效率更高,结合激活函数后移的策略,使得卷积运算速度提升了8.9倍.
推荐文章
基于FPGA的卷积神经网络并行加速结构设计
卷积神经网络
FPGA
卷积模块
激活模块
下采样模块
稀疏卷积神经网络加速器设计
稀疏卷积神经网络
阵列运算
加速器
高能效比
一种双向脉动数据流的全卷积神经网络加速器
全卷积
反卷积层
加速优化
双向脉动数据流
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 卷积神经网络声学模型的结构优化和加速计算
来源期刊 重庆邮电大学学报(自然科学版) 学科 工学
关键词 语音识别 声学模型 卷积神经网络 矢量化
年,卷(期) 2018,(3) 所属期刊栏目 计算机与自动化
研究方向 页码范围 416-422
页数 7页 分类号 TP18|TN912.34
字数 4783字 语种 中文
DOI 10.3979/j.issn.1673-825X.2018.03.017
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 颜永红 中国科学院语言声学与内容理解重点实验室 94 586 14.0 20.0
5 张鹏远 中国科学院语言声学与内容理解重点实验室 18 77 6.0 8.0
6 徐及 中国科学院语言声学与内容理解重点实验室 3 3 1.0 1.0
7 王智超 中国科学院语言声学与内容理解重点实验室 3 24 2.0 3.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (4)
共引文献  (42)
参考文献  (5)
节点文献
引证文献  (2)
同被引文献  (5)
二级引证文献  (0)
2011(1)
  • 参考文献(0)
  • 二级参考文献(1)
2012(4)
  • 参考文献(2)
  • 二级参考文献(2)
2013(1)
  • 参考文献(0)
  • 二级参考文献(1)
2015(3)
  • 参考文献(3)
  • 二级参考文献(0)
2018(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2019(2)
  • 引证文献(2)
  • 二级引证文献(0)
研究主题发展历程
节点文献
语音识别
声学模型
卷积神经网络
矢量化
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
重庆邮电大学学报(自然科学版)
双月刊
1673-825X
50-1181/N
大16开
重庆南岸区
78-77
1988
chi
出版文献量(篇)
3229
总下载数(次)
12
总被引数(次)
19476
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导