作者:
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
实现一种基于深度神经网络的语音驱动发音器官运动合成的方法,并应用于语音驱动虚拟说话人动画合成。通过深度神经网络(Deep neural networks, DNN)学习声学特征与发音器官位置信息之间的映射关系,系统根据输入的语音数据估计发音器官的运动轨迹,并将其体现在一个三维虚拟人上面。首先,在一系列参数下对比人工神经网络(Artificial neural network, ANN)和DNN 的实验结果,得到最优网络;其次,设置不同上下文声学特征长度并调整隐层单元数,获取最佳长度;最后,选取最优网络结构,由DNN输出的发音器官运动轨迹信息控制发音器官运动合成,实现虚拟人动画。实验证明,本文所实现的动画合成方法高效逼真。
推荐文章
基于深度神经网络的语音增强研究
深度学习
语音增强
人工神经网络
基于深度学习神经网络的孤立词语音识别的研究
语音识别
人工神经网络
深度学习
自编码器
规整网络
基于小波混沌神经网络的语音识别
语音识别
小波变换
混沌
神经网络
联合优化深度神经网络和约束维纳滤波的通道语音增强方法
深度神经网络
语音增强
约束维纳滤波
联合优化
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于深度神经网络的语音驱动发音器官的运动合成
来源期刊 自动化学报 学科
关键词 深度神经网络 语音驱动 运动合成 虚拟说话人
年,卷(期) 2016,(6) 所属期刊栏目
研究方向 页码范围 923-930
页数 8页 分类号
字数 5525字 语种 中文
DOI 10.16383/j.aas.2016.c150726
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 侯进 西南交通大学信息科学与技术学院 58 375 9.0 17.0
2 唐郅 西南交通大学信息科学与技术学院 1 7 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (12)
共引文献  (7)
参考文献  (14)
节点文献
引证文献  (7)
同被引文献  (13)
二级引证文献  (2)
1997(1)
  • 参考文献(0)
  • 二级参考文献(1)
2003(2)
  • 参考文献(1)
  • 二级参考文献(1)
2004(2)
  • 参考文献(0)
  • 二级参考文献(2)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2006(2)
  • 参考文献(2)
  • 二级参考文献(0)
2007(1)
  • 参考文献(1)
  • 二级参考文献(0)
2008(10)
  • 参考文献(5)
  • 二级参考文献(5)
2009(2)
  • 参考文献(0)
  • 二级参考文献(2)
2011(1)
  • 参考文献(1)
  • 二级参考文献(0)
2012(3)
  • 参考文献(3)
  • 二级参考文献(0)
2013(1)
  • 参考文献(1)
  • 二级参考文献(0)
2016(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2017(1)
  • 引证文献(1)
  • 二级引证文献(0)
2018(3)
  • 引证文献(3)
  • 二级引证文献(0)
2019(4)
  • 引证文献(3)
  • 二级引证文献(1)
2020(1)
  • 引证文献(0)
  • 二级引证文献(1)
研究主题发展历程
节点文献
深度神经网络
语音驱动
运动合成
虚拟说话人
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
自动化学报
月刊
0254-4156
11-2109/TP
大16开
北京市海淀区中关村东路95号(北京2728信箱)
2-180
1963
chi
出版文献量(篇)
4124
总下载数(次)
26
总被引数(次)
120705
论文1v1指导