作者:
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
现今是高度信息化、智能化的社会,人们的生活早已离不开人工智能,如停车厂的车牌识别、美颜相机的智能滤镜以及机器人、语言翻译等.而在这些智能系统的背后,是人工智能在起着关键的作用,深度学习是人工智能的深层次理论,而本文所研究的自然语言处理则是深度学习的一个主要方向,也是机器学习的重要组成部分.自然语言处理简称NLP(natural language processing),NLP是人工智能方向中专门研究人类语言的,它的研究范围包括各个国家的所用语言,并应用于机器翻译、观点提取、语音识别、自动摘要、文本分类等多个方面.NLP的主要神经网络模型包括RNN(recurrent neural network)、LSTM(long short-term memory)、GRU(gate recurrent unit)、Transformer等.通过结合RNN、LSTM以及Transformer模型来对自然语言处理研究的发展进行说明和探讨.
推荐文章
基于自然语言处理的Web内容过滤模型
自然语言处理
Web
内容过滤
自然语言生成综述
自然语言生成
内容规划
微观规划
表层生成
基于自然语言处理的知识检索算法研究
自然语言处理
知识检索
半监督算法
基于Ontology的自然语言理解
KB-NLU
Ontology
世界知识型:词汇语义型
句法语义型
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于RNN和Transformer模型的自然语言处理研究综述
来源期刊 信息记录材料 学科 工学
关键词 人工智能 自然语言处理 循环神经网络 Transformer
年,卷(期) 2021,(12) 所属期刊栏目 综述与论著
研究方向 页码范围 7-10
页数 4页 分类号 TP15
字数 语种 中文
DOI
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
人工智能
自然语言处理
循环神经网络
Transformer
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
信息记录材料
月刊
1009-5624
13-1295/TQ
大16开
河北省保定市乐凯南大街6号
18-185
1978
chi
出版文献量(篇)
9919
总下载数(次)
46
总被引数(次)
13955
论文1v1指导