钛学术
文献服务平台
学术出版新技术应用与公共服务实验室出品
首页
论文降重
免费查重
学术期刊
学术导航
任务中心
论文润色
登录
文献导航
学科分类
>
综合
工业技术
科教文艺
医药卫生
基础科学
经济财经
社会科学
农业科学
哲学政法
社会科学II
哲学与人文科学
社会科学I
经济与管理科学
工程科技I
工程科技II
医药卫生科技
信息科技
农业科技
数据库索引
>
中国科学引文数据库
工程索引(美)
日本科学技术振兴机构数据库(日)
文摘杂志(俄)
科学文摘(英)
化学文摘(美)
中国科技论文统计与引文分析数据库
中文社会科学引文索引
科学引文索引(美)
中文核心期刊
cscd
ei
jst
aj
sa
ca
cstpcd
cssci
sci
cpku
默认
篇关摘
篇名
关键词
摘要
全文
作者
作者单位
基金
分类号
搜索文章
搜索思路
钛学术文献服务平台
\
学术期刊
\
工业技术期刊
\
自动化技术与计算机技术期刊
\
计算机应用期刊
\
基于MAP+CMLLR的说话人识别中发声力度问题
基于MAP+CMLLR的说话人识别中发声力度问题
作者:
彭亚雄
贺松
黄文娜
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取
说话人识别
发声力度
最大后验概率
最大似然线性回归
约束最大似然线性回归
摘要:
为了改善发声力度对说话人识别系统性能的影响,在训练语音存在少量耳语、高喊语音数据的前提下,提出了使用最大后验概率(MAP)和约束最大似然线性回归(CMLLR)相结合的方法来更新说话人模型、投影转换说话人特征.其中,MAP自适应方法用于对正常语音训练的说话人模型进行更新,而CMLLR特征空间投影方法则用来投影转换耳语、高喊测试语音的特征,从而改善训练语音与测试语音的失配问题.实验结果显示,采用MAP+ CMLLR方法时,说话人识别系统等错误率(EER)明显降低,与基线系统、最大后验概率(MAP)自适应方法、最大似然线性回归(MLLR)模型投影方法和约束最大似然线性回归(CMLLR)特征空间投影方法相比,MAP+ CMLLR方法的平均等错率分别降低了75.3%、3.5%、72%和70.9%.实验结果表明,所提出方法削弱了发声力度对说话人区分性的影响,使说话人识别系统对于发声力度变化更加鲁棒.
暂无资源
收藏
引用
分享
推荐文章
基于支持向量机的说话人识别研究
支持向量机
说话人识别
结构风险最小化
核函数
基于多特征有效组合的说话人识别
说话人识别
动态规整
MFCC
LPCC
基音周期
噪声环境中基于VQ说话人识别
说话人识别
矢量量化
掩蔽阚值
掩蔽效应
MFCC
改进的说话人聚类初始化和GMM的多说话人识别
多说话人识别
改进的聚类初始化
高斯混合模型
平均类纯度
内容分析
文献信息
引文网络
相关学者/机构
相关基金
期刊文献
内容分析
关键词云
关键词热度
相关文献总数
(/次)
(/年)
文献信息
篇名
基于MAP+CMLLR的说话人识别中发声力度问题
来源期刊
计算机应用
学科
工学
关键词
说话人识别
发声力度
最大后验概率
最大似然线性回归
约束最大似然线性回归
年,卷(期)
2017,(3)
所属期刊栏目
应用前沿、交叉与综合
研究方向
页码范围
906-910
页数
5页
分类号
TP391.4
字数
5649字
语种
中文
DOI
10.11772/j.issn.1001-9081.2017.03.906
五维指标
作者信息
序号
姓名
单位
发文数
被引次数
H指数
G指数
1
彭亚雄
贵州大学大数据与信息工程学院
34
93
6.0
8.0
2
贺松
贵州大学大数据与信息工程学院
39
155
6.0
10.0
3
黄文娜
贵州大学大数据与信息工程学院
2
2
1.0
1.0
传播情况
被引次数趋势
(/次)
(/年)
引文网络
引文网络
二级参考文献
(9)
共引文献
(4)
参考文献
(11)
节点文献
引证文献
(2)
同被引文献
(2)
二级引证文献
(0)
1969(1)
参考文献(1)
二级参考文献(0)
1991(1)
参考文献(1)
二级参考文献(0)
1995(1)
参考文献(1)
二级参考文献(0)
1996(1)
参考文献(1)
二级参考文献(0)
1998(2)
参考文献(1)
二级参考文献(1)
2000(2)
参考文献(1)
二级参考文献(1)
2005(2)
参考文献(0)
二级参考文献(2)
2006(1)
参考文献(0)
二级参考文献(1)
2008(1)
参考文献(0)
二级参考文献(1)
2009(1)
参考文献(0)
二级参考文献(1)
2010(1)
参考文献(1)
二级参考文献(0)
2011(2)
参考文献(1)
二级参考文献(1)
2012(1)
参考文献(0)
二级参考文献(1)
2013(1)
参考文献(1)
二级参考文献(0)
2014(1)
参考文献(1)
二级参考文献(0)
2015(1)
参考文献(1)
二级参考文献(0)
2017(0)
参考文献(0)
二级参考文献(0)
引证文献(0)
二级引证文献(0)
2019(1)
引证文献(1)
二级引证文献(0)
2020(1)
引证文献(1)
二级引证文献(0)
研究主题发展历程
节点文献
说话人识别
发声力度
最大后验概率
最大似然线性回归
约束最大似然线性回归
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机应用
主办单位:
四川省计算机学会
中国科学院成都分院
出版周期:
月刊
ISSN:
1001-9081
CN:
51-1307/TP
开本:
大16开
出版地:
成都237信箱
邮发代号:
62-110
创刊时间:
1981
语种:
chi
出版文献量(篇)
20189
总下载数(次)
40
总被引数(次)
209512
期刊文献
相关文献
1.
基于支持向量机的说话人识别研究
2.
基于多特征有效组合的说话人识别
3.
噪声环境中基于VQ说话人识别
4.
改进的说话人聚类初始化和GMM的多说话人识别
5.
基于i-vector说话人识别算法中训练时长研究
6.
基于MVQM说话人识别系统的DSP实现
7.
基于VQ-MAP和SVM融合的说话人识别系统
8.
基于Matlab GUI的说话人识别测试平台设计
9.
改进批处理RPEM算法用于说话人识别
10.
语音增强用于抗噪声的汉语说话人识别
11.
基于发声机理与人耳感知特性的说话人识别
12.
基于MFCC和运动强度聚类初始化的多说话人识别
13.
基于说话人模型聚类的说话人识别
14.
改进型 Mel 混合参数应用于说话人识别
15.
DSP嵌入式说话人识别系统的设计与实现
推荐文献
钛学术
文献服务平台
学术出版新技术应用与公共服务实验室出品
首页
论文降重
免费查重
学术期刊
学术导航
任务中心
论文润色
登录
根据相关规定,获取原文需跳转至原文服务方进行注册认证身份信息
完成下面三个步骤操作后即可获取文献,阅读后请
点击下方页面【继续获取】按钮
钛学术
文献服务平台
学术出版新技术应用与公共服务实验室出品
原文合作方
继续获取
获取文献流程
1.访问原文合作方请等待几秒系统会自动跳转至登录页,首次访问请先注册账号,填写基本信息后,点击【注册】
2.注册后进行实名认证,实名认证成功后点击【返回】
3.检查邮箱地址是否正确,若错误或未填写请填写正确邮箱地址,点击【确认支付】完成获取,文献将在1小时内发送至您的邮箱
*若已注册过原文合作方账号的用户,可跳过上述操作,直接登录后获取原文即可
点击
【获取原文】
按钮,跳转至合作网站。
首次获取需要在合作网站
进行注册。
注册并实名认证,认证后点击
【返回】按钮。
确认邮箱信息,点击
【确认支付】
, 订单将在一小时内发送至您的邮箱。
*
若已经注册过合作网站账号,请忽略第二、三步,直接登录即可。
期刊分类
期刊(年)
期刊(期)
期刊推荐
一般工业技术
交通运输
军事科技
冶金工业
动力工程
化学工业
原子能技术
大学学报
建筑科学
无线电电子学与电信技术
机械与仪表工业
水利工程
环境科学与安全科学
电工技术
石油与天然气工业
矿业工程
自动化技术与计算机技术
航空航天
轻工业与手工业
金属学与金属工艺
计算机应用2022
计算机应用2021
计算机应用2020
计算机应用2019
计算机应用2018
计算机应用2017
计算机应用2016
计算机应用2015
计算机应用2014
计算机应用2013
计算机应用2012
计算机应用2011
计算机应用2010
计算机应用2009
计算机应用2008
计算机应用2007
计算机应用2006
计算机应用2005
计算机应用2004
计算机应用2003
计算机应用2002
计算机应用2001
计算机应用2000
计算机应用1999
计算机应用2017年第z2期
计算机应用2017年第z1期
计算机应用2017年第9期
计算机应用2017年第8期
计算机应用2017年第7期
计算机应用2017年第6期
计算机应用2017年第5期
计算机应用2017年第4期
计算机应用2017年第3期
计算机应用2017年第2期
计算机应用2017年第12期
计算机应用2017年第11期
计算机应用2017年第10期
计算机应用2017年第1期
关于我们
用户协议
隐私政策
知识产权保护
期刊导航
免费查重
论文知识
钛学术官网
按字母查找期刊:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他
联系合作 广告推广: shenyukuan@paperpass.com
京ICP备2021016839号
营业执照
版物经营许可证:新出发 京零 字第 朝220126号