基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
语言处理模型层出不穷,从在图像领域运用的卷积神经网络(Convolutional Neural Networks,CNN)、被改进后的TextCNN到循环神经网络(Rerrent Neural Network,RNN)、谷歌推出的transformer模型以及百度公司提出的ERNIE模型等.为了区分出在新闻文本领域处理效果最佳的文本分类模型,基于新闻文本任务数据对来自变换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers,BERT)进行微调,再将BERT作为embedding输入到其他深度学习模型中,最后对比目前几个深度学习模型的训练效果.实验结果表明,BERT-CNN模型分类效果最佳,其准确率比原BERT模型的准确率多了0.31%,且更为稳定.
推荐文章
基于BERT-AWC的文本分类方法研究
文本分类
注意力机制
卷积神经网络
混合注意力机制
CNN-ELM混合短文本分类模型
文本分类
卷积神经网络
极速学习机
基于深度神经网络的中文新闻文本分类方法
深度神经网络
文本分类
中文新闻
自然语言处理
基于CP-CNN的中文短文本分类研究
短文本
分类
卷积神经网络
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于改进的BERT-CNN模型的新闻文本分类研究
来源期刊 电视技术 学科
关键词 BERT TextCNN 词嵌入
年,卷(期) 2021,(7) 所属期刊栏目 器件与设计|PARTS & DESIGN
研究方向 页码范围 146-150
页数 5页 分类号 TP391
字数 语种 中文
DOI 10.16280/j.videoe.2021.07.040
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (3)
共引文献  (14)
参考文献  (2)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
2011(1)
  • 参考文献(0)
  • 二级参考文献(1)
2015(1)
  • 参考文献(0)
  • 二级参考文献(1)
2016(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(1)
  • 参考文献(1)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
BERT
TextCNN
词嵌入
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
电视技术
月刊
1002-8692
11-2123/TN
大16开
北京市朝阳区酒仙桥北路乙7号(北京743信箱杂志社)
2-354
1977
chi
出版文献量(篇)
12294
总下载数(次)
21
论文1v1指导