基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
近年来,随着深度学习技术在自然语言处理任务中的广泛应用,语言模型规模越来越大.然而,大规模模型推理速度慢、资源消耗成本高,难以在工业上进行应用,小规模模型又难以达到大规模模型效果.因此提出一种基于教师—学生框架的知识蒸馏模型,以预训练模型BERT作为教师模型,以长短时记忆网络(BiLSTM)等小模型作为学生模型,通过教师指导学生学习的方式将教师模型学习到的知识迁移至学生模型中.实验结果表明,蒸馏模型将运算推理时间缩短至教师模型的1/725,将学生模型短文本分类准确率提升3.16%.
推荐文章
基于自身特征扩展的短文本分类方法
短文本
稀疏
信号弱
扩展
离散度
相关度
基于关键词相似度的短文本分类方法研究
词向量
特征选择
短文本分类
特征权重
CNN-ELM混合短文本分类模型
文本分类
卷积神经网络
极速学习机
基于支持向量机的中文极短文本分类模型
支持向量机
jieba分词
极短文本分类
TF-IDF
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于知识蒸馏的短文本分类方法
来源期刊 软件导刊 学科
关键词 知识蒸馏 文本分类 双向模型 自然语言处理
年,卷(期) 2021,(6) 所属期刊栏目 人工智能
研究方向 页码范围 23-27
页数 5页 分类号 TP301
字数 语种 中文
DOI 10.11907/rjdk.202006
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (1)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1997(1)
  • 参考文献(1)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
知识蒸馏
文本分类
双向模型
自然语言处理
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
软件导刊
月刊
1672-7800
42-1671/TP
16开
湖北省武汉市
38-431
2002
chi
出版文献量(篇)
9809
总下载数(次)
57
论文1v1指导