基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
针对双模态情感识别框架识别率低、可靠性差的问题,对情感识别最重要的两个模态语音和面部表情进行了双模态情感识别特征层融合的研究.采用基于先验知识的特征提取方法和VGGNet-19网络分别对预处理后的音视频信号进行特征提取,以直接级联的方式并通过PCA进行降维来达到特征融合的目的,使用BLSTM网络进行模型构建以完成情感识别.将该框架应用到AViD-Corpus和SEMAINE数据库上进行测试,并和传统情感识别特征层融合框架以及基于VGGNet-19或BLSTM的框架进行了对比.实验结果表明,情感识别的均方根误差(RMSE)得到降低,皮尔逊相关系数(PCC)得到提高,验证了文中提出方法的有效性.
推荐文章
基于情绪基调的音视频双模态情绪识别算法
情绪基调
音视频
双模态
决策层融合
情绪识别
基于发音特征的音视频说话人识别鲁棒性的研究
发音特征
音视频
说话人识别
动态贝叶斯网络
基于语音信号与文本信息的双模态情感识别
语音信号
文本识别
参数优化
高斯混合模型
基于人脸表情和语音的双模态情感识别
人脸表情
语音
双模态情感识别
稀疏典型相关分析
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 音视频双模态情感识别融合框架研究
来源期刊 计算机工程与应用 学科 工学
关键词 音视频 双模态 特征层融合 情感识别 BLSTM
年,卷(期) 2020,(6) 所属期刊栏目 模式识别与人工智能
研究方向 页码范围 140-146
页数 7页 分类号 TP391
字数 6212字 语种 中文
DOI 10.3778/j.issn.1002-8331.1811-0332
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 张树东 首都师范大学信息工程学院 24 80 5.0 8.0
2 宋冠军 首都师范大学信息工程学院 1 0 0.0 0.0
3 卫飞高 首都师范大学信息工程学院 2 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (24)
共引文献  (6)
参考文献  (14)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1995(1)
  • 参考文献(0)
  • 二级参考文献(1)
1997(1)
  • 参考文献(1)
  • 二级参考文献(0)
1998(1)
  • 参考文献(1)
  • 二级参考文献(0)
2004(2)
  • 参考文献(0)
  • 二级参考文献(2)
2005(1)
  • 参考文献(1)
  • 二级参考文献(0)
2007(2)
  • 参考文献(0)
  • 二级参考文献(2)
2009(5)
  • 参考文献(1)
  • 二级参考文献(4)
2010(2)
  • 参考文献(0)
  • 二级参考文献(2)
2011(2)
  • 参考文献(0)
  • 二级参考文献(2)
2012(2)
  • 参考文献(0)
  • 二级参考文献(2)
2013(4)
  • 参考文献(2)
  • 二级参考文献(2)
2014(7)
  • 参考文献(2)
  • 二级参考文献(5)
2015(1)
  • 参考文献(1)
  • 二级参考文献(0)
2016(3)
  • 参考文献(2)
  • 二级参考文献(1)
2017(2)
  • 参考文献(2)
  • 二级参考文献(0)
2018(2)
  • 参考文献(1)
  • 二级参考文献(1)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
音视频
双模态
特征层融合
情感识别
BLSTM
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程与应用
半月刊
1002-8331
11-2127/TP
大16开
北京619信箱26分箱
82-605
1964
chi
出版文献量(篇)
39068
总下载数(次)
102
总被引数(次)
390217
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导