基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
由于能够很好地近似描述任何分布,混合高斯模型(GMM)在模式在识别领域得到了广泛的应用.GMM模型参数通常使用迭代的期望最大化(EM)算法训练获得,当训练数据量非常庞大及模型混合数很大时,需要花费很长的训练时间.NVIDIA公司推出的统一计算设备架构(Computed unified device architecture,CUDA)技术通过在图形处理单元(GPU)并发执行多个线程能够实现大规模并行快速计算.本文提出一种基于CUDA,适用于特大数据量的GMM模型快速训练方法,包括用于模型初始化的K-means算法的快速实现方法,以及用于模型参数估计的EM算法的快速实现方法.文中还将这种训练方法应用到语种GMM模型训练中.实验结果表明,与Intel DualCore PentiumⅣ3.0 GHz CPU的一个单核相比,在NVIDIA GTS250 GPU上语种GMM模型训练速度提高了26倍左右.
推荐文章
基于CUDA的DCT快速变换实现方法
图形处理器
离散余弦交换
并行计算
基于组合训练方法的RBFNN转炉炼钢静态模型
径向基神经网络
转炉炼钢
梯度下降法
量子微粒群优化算法
基于联邦学习的短期负荷预测模型协同训练方法
数据隐私
机器学习
负荷预测
联邦学习
一种交替变换更新层数的 DBN-DNN 快速训练方法
语音识别
DBN-DNN
快速训练算法
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于CUDA的GMM模型快速训练方法
来源期刊 数据采集与处理 学科 工学
关键词 混合高斯模型 语种识别 图形处理单元 统一计算设备架构
年,卷(期) 2012,(1) 所属期刊栏目
研究方向 页码范围 85-90
页数 分类号 TP391
字数 6101字 语种 中文
DOI 10.3969/j.issn.1004-9037.2012.01.014
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 戴礼荣 中国科学技术大学电子工程与信息科学系 86 643 14.0 21.0
2 吴奎 中国科学技术大学电子工程与信息科学系 2 5 1.0 2.0
3 宋彦 中国科学技术大学电子工程与信息科学系 45 315 10.0 16.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (5)
共引文献  (4)
参考文献  (4)
节点文献
引证文献  (4)
同被引文献  (13)
二级引证文献  (12)
1977(1)
  • 参考文献(1)
  • 二级参考文献(0)
1981(1)
  • 参考文献(0)
  • 二级参考文献(1)
1991(1)
  • 参考文献(1)
  • 二级参考文献(0)
1994(1)
  • 参考文献(0)
  • 二级参考文献(1)
2000(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2007(2)
  • 参考文献(1)
  • 二级参考文献(1)
2009(1)
  • 参考文献(1)
  • 二级参考文献(0)
2012(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2013(1)
  • 引证文献(1)
  • 二级引证文献(0)
2014(2)
  • 引证文献(0)
  • 二级引证文献(2)
2015(3)
  • 引证文献(1)
  • 二级引证文献(2)
2016(1)
  • 引证文献(0)
  • 二级引证文献(1)
2017(2)
  • 引证文献(0)
  • 二级引证文献(2)
2018(3)
  • 引证文献(2)
  • 二级引证文献(1)
2019(2)
  • 引证文献(0)
  • 二级引证文献(2)
2020(2)
  • 引证文献(0)
  • 二级引证文献(2)
研究主题发展历程
节点文献
混合高斯模型
语种识别
图形处理单元
统一计算设备架构
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
数据采集与处理
双月刊
1004-9037
32-1367/TN
大16开
南京市御道街29号1016信箱
28-235
1986
chi
出版文献量(篇)
3235
总下载数(次)
7
总被引数(次)
25271
论文1v1指导