基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
意图分类是一种特殊的短文本分类方法,其从传统的模板匹配方法发展到深度学习方法,基于B E RT模型的提出,使得大规模的预训练语言模型成为自然语言处理领域的主流方法.然而预训练模型十分庞大,且需要大量的数据和设备资源才能完成训练过程.提出一种知识蒸馏意图分类方法,以预训练后的B E RT作为教师模型,文本卷积神经网络Text-CNN等小规模模型作为学生模型,通过生成对抗网络得到的大量无标签数据将教师模型中的知识迁移到学生模型中.实验数据包括基于真实场景下的电力业务意图分类数据集,以及通过生成对抗网络模型生成的大量无标签文本作为扩充数据.在真实数据和生成数据上的实验结果表明,用教师模型来指导学生模型训练,该方法可以在原有数据资源和计算资源的条件下将学生模型的意图分类准确率最高提升3.8个百分点.
推荐文章
基于BERT-AWC的文本分类方法研究
文本分类
注意力机制
卷积神经网络
混合注意力机制
基于BERT字向量和TextCNN的农业问句分类模型分析
农业问句
智能问答系统
问句分类
预训练语言模型(BERT)
文本卷积神经网络
基于多标签分类的学术文献潜在时间意图识别研究
多标签分类
主题模型
潜在时间意图
文本特征抽取
文本分类
基于BERT模型的多任务法律案件智能判决方法
自然语言处理
判决预测
深度神经网络
多任务学习
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于BERT模型与知识蒸馏的意图分类方法
来源期刊 计算机工程 学科
关键词 意图分类 预训练模型 知识蒸馏 生成对抗网络 对话系统
年,卷(期) 2021,(5) 所属期刊栏目 人工智能与模式识别|Artificial Intelligence and Pattern Recognition
研究方向 页码范围 73-79
页数 7页 分类号 TP391.1
字数 语种 中文
DOI 10.19678/j.issn.1000-3428.0057416
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (6)
共引文献  (1)
参考文献  (7)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1990(1)
  • 参考文献(1)
  • 二级参考文献(0)
1992(1)
  • 参考文献(0)
  • 二级参考文献(1)
1997(2)
  • 参考文献(1)
  • 二级参考文献(1)
2000(1)
  • 参考文献(1)
  • 二级参考文献(0)
2003(1)
  • 参考文献(1)
  • 二级参考文献(0)
2006(1)
  • 参考文献(1)
  • 二级参考文献(0)
2007(1)
  • 参考文献(1)
  • 二级参考文献(0)
2014(1)
  • 参考文献(0)
  • 二级参考文献(1)
2017(1)
  • 参考文献(0)
  • 二级参考文献(1)
2018(2)
  • 参考文献(0)
  • 二级参考文献(2)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
意图分类
预训练模型
知识蒸馏
生成对抗网络
对话系统
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程
月刊
1000-3428
31-1289/TP
大16开
上海市桂林路418号
4-310
1975
chi
出版文献量(篇)
31987
总下载数(次)
53
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导