基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
鉴于Transformer模型在自然语言处理等序列任务中的优异性能,提出了一种适用于语音情感识别任务的改进的类Transformer模型.为了减小Transformer模型中多头注意力单元内部由softmax运算引起的巨大时间消耗与内存开销,提出了一种新的线性自注意力计算方法,通过使用泰勒级数展开公式代替原来的指数函数,并根据矩阵乘积的关联性将softmax运算相对于输入序列长度的时间复杂度和空间复杂度从O(N2)降至O(N),其中N为序列长度.在2个不同语言的情感语料库上进行实验.结果 表明:所提出的线性注意力算法可获得与原始缩放点积注意力相近的性能,而模型训练过程中的时间和内存开销大幅降低;与原始的Transformer模型相比,改进后的模型具有更鲁棒的语音情感识别性能.
推荐文章
一种基于注意力机制的语音情感识别算法研究
语音情感识别
深度学习
注意力机制
语谱图
基于混合式注意力机制的语音识别研究
卷积
注意力机制
全局平均池化
长短期记忆网络
LAS模型
基于表情符注意力机制的微博情感分析模型
表情符
微博
情感分析
注意力机制
基于自注意力的TCN-Transformer的电网单相故障检测方法
时间卷积网络
Transformer
小波变换
主成分分析
自注意力机制
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于线性注意力和类Transformer模型的语音情感识别
来源期刊 东南大学学报(英文版) 学科
关键词 Transformer 注意力机制 语音情感识别 快速softmax
年,卷(期) 2021,(2) 所属期刊栏目
研究方向 页码范围 164-170
页数 7页 分类号 TN912.3|TP18
字数 语种 英文
DOI 10.3969/j.issn.1003-7985.2021.02.005
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (4)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1997(1)
  • 参考文献(1)
  • 二级参考文献(0)
2008(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(1)
  • 参考文献(1)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
Transformer
注意力机制
语音情感识别
快速softmax
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
东南大学学报(英文版)
季刊
1003-7985
32-1325/N
大16开
南京四牌楼2号
1984
eng
出版文献量(篇)
2004
总下载数(次)
1
论文1v1指导