作者:
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
2010年之后AI进入高速发展期.尤其是在深度学习领域,新的算法层出不穷,屡次突破前人极限.但在技术高速发展的同时,人类自己的想象力也给自己造成了困扰,一些不实的报道充斥着人工智能机器人已经有了自己的语言能力的宣传.事实真的是这样吗?本论文通过剖析目前最强大的BERT技术,来一层层分析AI处理人类的语言的方式,以得出AI尚无法理解人类语言的结论.
推荐文章
破解语言密码着力语言运用
鉴赏篇章
构建段式
品读感悟
学习表达
基于Ontology的自然语言理解
KB-NLU
Ontology
世界知识型:词汇语义型
句法语义型
对C语言指针理解方式的探讨
指针
地址
数组
指针的指针
降维
基于BERT-AWC的文本分类方法研究
文本分类
注意力机制
卷积神经网络
混合注意力机制
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于BERT的对AI理解语言方式的研究
来源期刊 科技视界 学科 文学
关键词 预训练模型 自注意 变压器 BERT
年,卷(期) 2019,(5) 所属期刊栏目 机械与电子
研究方向 页码范围 88-89
页数 2页 分类号 H319
字数 2235字 语种 中文
DOI 10.19694/j.cnki.issn2095-2457.2019.05.029
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (2)
同被引文献  (1)
二级引证文献  (0)
2019(2)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(2)
  • 二级引证文献(0)
2019(2)
  • 引证文献(2)
  • 二级引证文献(0)
研究主题发展历程
节点文献
预训练模型
自注意
变压器
BERT
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
科技视界
旬刊
2095-2457
31-2065/N
大16开
上海市
2011
chi
出版文献量(篇)
57598
总下载数(次)
165
论文1v1指导