基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
深度学习在很多人工智能应用领域中取得成功的关键原因在于,通过复杂的深层网络模型从海量数据中学习丰富的知识.然而,深度学习模型内部高度的复杂性常导致人们难以理解模型的决策结果,造成深度学习模型的不可解释性,从而限制了模型的实际部署.因此,亟需提高深度学习模型的可解释性,使模型透明化,以推动人工智能领域研究的发展.本文旨在对深度学习模型可解释性的研究进展进行系统性的调研,从可解释性原理的角度对现有方法进行分类,并且结合可解释性方法在人工智能领域的实际应用,分析目前可解释性研究存在的问题,以及深度学习模型可解释性的发展趋势.为全面掌握模型可解释性的研究进展以及未来的研究方向提供新的思路.
推荐文章
深度学习的可解释性
深度学习
可解释性
端到端
可视化
智能人机交互
人工智能
StackRNN的设计及可解释性研究
循环神经网络
可解释性
记忆网络
自动机理论
SAR图像目标识别的可解释性问题探讨
合成孔径雷达
自动目标识别
深度学习
可解释性
可解释机器学习
重新找回人工智能的可解释性
人工智能
可解释性
演化
不确定性
泛逻辑学
柔性命题逻辑
柔性神经元
数理辩证逻辑
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 深度学习模型可解释性的研究进展
来源期刊 信息安全学报 学科 工学
关键词 深度学习模型 可解释性 人工智能
年,卷(期) 2020,(3) 所属期刊栏目
研究方向 页码范围 前插1,1-12
页数 13页 分类号 TP181
字数 12382字 语种 中文
DOI 10.19363/J.cnki.cn10-1380/tn.2020.05.01
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (10)
共引文献  (20)
参考文献  (11)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
2011(1)
  • 参考文献(0)
  • 二级参考文献(1)
2015(3)
  • 参考文献(1)
  • 二级参考文献(2)
2016(4)
  • 参考文献(2)
  • 二级参考文献(2)
2017(5)
  • 参考文献(2)
  • 二级参考文献(3)
2018(4)
  • 参考文献(3)
  • 二级参考文献(1)
2019(3)
  • 参考文献(3)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深度学习模型
可解释性
人工智能
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
信息安全学报
双月刊
2096-1146
10-1380/TN
大16开
北京市海淀区闵庄路甲89号
2016
chi
出版文献量(篇)
252
总下载数(次)
7
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导