基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
着眼于语音可视化.为呈现真实说话人各发音器官的运动,提出一种改进的CM协同发音模型,并采用该方法合成汉字的发音轨迹,进而以此驱动和控制虚拟3D音视频说话人头模型,直观呈现通常可见及不可见发音器官的发音运动.实验证明:由改进方法获得的合成发音轨迹更逼近真实发音轨迹.同时,为了定量比较舌读和唇读在语音感知和识别中的作用,设计三组感知实验,实验结果显示:叠加了唇读信息的感知识别率较单纯的加噪语音的识别率提高了25.8%;而叠加了舌读信息的识别率较单纯牛觉信息的识别率提高了26.7%.因此,当语音恶化时,舌读信息可提供大于唇读信息的补充作用,且舌读信息与唇读信息一样具有识别力.
推荐文章
基于可视语音合成的3D通信技术研究
可视语音合成
3D通信
用户替身
非语言信息
界面
基于发音特征的音/视频双流语音识别模型
动态贝叶斯网络
发音特征
音/视频
语音识别
基于语音识别的汉语发音教学系统
语音识别
汉语发音教学
评分方法
拼音
计算机辅助教学
英文发音中错误语音自动识别系统设计
英语发音
错误语音
自动识别
发音评分
发音共振峰图像显示
独立阈值
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于发音轨迹的可视语音合成
来源期刊 计算机应用与软件 学科 工学
关键词 语音可视化 CM协同发音模型 改进的CM协同发音模型 舌读 唇读
年,卷(期) 2013,(6) 所属期刊栏目 多媒体技术应用
研究方向 页码范围 253-257,261
页数 6页 分类号 TP3
字数 5475字 语种 中文
DOI 10.3969/j.issn.1000-386x.2013.06.067
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 白静 太原理工大学信息工程学院 39 197 8.0 11.0
2 王岚 中国科学院深圳先进技术研究院 53 298 10.0 16.0
3 朱云 中国科学院深圳先进技术研究院 3 4 1.0 2.0
4 郑红娜 太原理工大学信息工程学院 3 5 1.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (4)
节点文献
引证文献  (3)
同被引文献  (1)
二级引证文献  (1)
1954(1)
  • 参考文献(1)
  • 二级参考文献(0)
1992(1)
  • 参考文献(1)
  • 二级参考文献(0)
2008(1)
  • 参考文献(1)
  • 二级参考文献(0)
2012(1)
  • 参考文献(1)
  • 二级参考文献(0)
2013(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2014(2)
  • 引证文献(1)
  • 二级引证文献(1)
2017(2)
  • 引证文献(2)
  • 二级引证文献(0)
研究主题发展历程
节点文献
语音可视化
CM协同发音模型
改进的CM协同发音模型
舌读
唇读
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机应用与软件
月刊
1000-386X
31-1260/TP
大16开
上海市愚园路546号
4-379
1984
chi
出版文献量(篇)
16532
总下载数(次)
47
总被引数(次)
101489
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导