作者:
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
基于神经网络和深度学习的预训练语言模型为自然语言处理技术带来了突破性发展.基于自注意力机制的Transformer模型是预训练语言模型的基础.GPT、BERT、XLNet等大规模预训练语言模型均基于Transformer模型进行堆叠和优化.认为目前依赖强大算力和海量数据的大规模预训练语言模型存在实用问题,指出轻量预训练语言模型是未来重要的发展方向.
推荐文章
自然语言与机器学习
人工智能
机器学习
自然语言处理
自然语言处理技术背景下的 学术期刊智能化发展策略研究
自然语言处理技术
ChatGPT
人工智能
学术期刊
智能出版
自然语言理解与智能检索
知识库
智能检索
信息获取
信息标注
基于自然语言处理的Web内容过滤模型
自然语言处理
Web
内容过滤
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 自然语言处理技术发展
来源期刊 中兴通讯技术 学科
关键词 自然语言处理 预训练语言模型 Transformer GPT BERT XLNet 模型优化
年,卷(期) 2022,(2) 所属期刊栏目 专家论坛|Expert Forum
研究方向 页码范围 59-64
页数 6页 分类号
字数 语种 中文
DOI 10.12142/ZTETJ.202202009
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2022(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
自然语言处理
预训练语言模型
Transformer
GPT
BERT
XLNet
模型优化
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
中兴通讯技术
双月刊
1009-6868
34-1228/TN
大16开
合肥市金寨路329号凯旋大厦12楼
1995
chi
出版文献量(篇)
2060
总下载数(次)
1
论文1v1指导