基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
可解释深度学习的兴起 新一代人工智能系统具有自主理解、自主学习和自主行动等特点,但是系统所采用的全自动人工智能模型难以被人类理解,通常被当作一个黑盒子使用.在实际应用中,用户试图根据模型的性能(如准确度、复杂度等)来试探地选择和改进学习模型.由于用户无法理解模型内部的工作机理,所以无法实现人机的平等双向沟通,给人机协作带来巨大障碍.能否进行有效的人机沟通、准确理解、信任和管理这些“类人”机器及相应的学习模型,将直接影响这些“类人”机器的发展趋势——是成为人类的“朋友”还是“敌人”.这迫切需要提升机器学习模型的可解释性——将“黑箱”模型转化为“白箱”,为实现人机平等沟通奠定基础.
推荐文章
深度学习的可解释性
深度学习
可解释性
端到端
可视化
智能人机交互
人工智能
StackRNN的设计及可解释性研究
循环神经网络
可解释性
记忆网络
自动机理论
可解释时空卷积网络的微表情识别应用
微表情识别
可解释性
残差单元
卷积神经网络
基于进化策略生成可解释性模糊系统
模糊系统
进化策略
可解释性
最简约模糊划分
完备-清晰性
一致性
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于可视分析的可解释深度学习
来源期刊 中国计算机学会通讯 学科
关键词 可视分析 深度学习 交互式机器学习 可解释机器学习
年,卷(期) 2019,(3) 所属期刊栏目 专题
研究方向 页码范围 29-35
页数 7页 分类号
字数 语种 中文
DOI
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
可视分析
深度学习
交互式机器学习
可解释机器学习
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
中国计算机学会通讯
月刊
N
北京2704信箱
chi
出版文献量(篇)
1118
总下载数(次)
6
论文1v1指导