基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
网络表示学习的目标是将网络节点映射到一个低维的向量空间中,然后利用已有的机器学习方法解决诸如节点分类、链接预测、社团挖掘和推荐等下游应用任务.通常网络中的节点携有属性信息,与结构信息具有一定的相关性,将这些信息融入到网络表示学习过程中,有助于提升下游任务的性能.但是针对不同的应用场景,结构和属性信息并不总是线性相关,而且它们都是高度非线性的数据.提出一种基于变分自编码器的网络表示学习方法VANRL.变分自编码器是一种深度神经网络,它不仅可以捕获结构和属性非线性相似性,还可以学习到数据的分布.针对不同的应用任务,灵活地组合结构信息和属性信息,使学习到的网络节点表示达到令人满意的性能.在四个网络(包括两个社交网络,两个引用网络)上的实验结果表明,VANRL可以在节点分类和链路预测任务中获得相对显著的效果.
推荐文章
变分自编码器模型综述
深度隐空间生成模型
无监督学习
变分自编码器
图像生成
基于信息最大化变分自编码器的孪生神经主题模型
变分自编码器
主题模型
文档表示
基于变分自编码器的情感回归半监督领域适应方法
变分自编码器
情感回归
半监督
领域适应
基于变分自编码器的问题识别方法
非正式
问题识别
半监督
变分自编码器
注意力机制
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 利用变分自编码器进行网络表示学习
来源期刊 计算机科学与探索 学科 工学
关键词 网络表示学习 拓扑结构 节点属性 变分自编码器
年,卷(期) 2019,(10) 所属期刊栏目 人工智能与模式识别
研究方向 页码范围 1733-1744
页数 12页 分类号 TP391
字数 8768字 语种 中文
DOI
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 张燕平 安徽大学计算机科学与技术学院 148 1556 21.0 32.0
2 赵姝 安徽大学计算机科学与技术学院 82 555 13.0 19.0
3 张蕾 安徽大学计算机科学与技术学院 9 5 2.0 2.0
7 钱峰 铜陵学院数学与计算机学院 19 19 3.0 3.0
8 陈洁 安徽大学计算机科学与技术学院 48 232 8.0 13.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (70)
共引文献  (16)
参考文献  (8)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1986(1)
  • 参考文献(0)
  • 二级参考文献(1)
1988(1)
  • 参考文献(0)
  • 二级参考文献(1)
1992(1)
  • 参考文献(0)
  • 二级参考文献(1)
2000(1)
  • 参考文献(1)
  • 二级参考文献(0)
2004(1)
  • 参考文献(0)
  • 二级参考文献(1)
2006(4)
  • 参考文献(1)
  • 二级参考文献(3)
2007(1)
  • 参考文献(0)
  • 二级参考文献(1)
2009(1)
  • 参考文献(0)
  • 二级参考文献(1)
2010(2)
  • 参考文献(1)
  • 二级参考文献(1)
2011(1)
  • 参考文献(0)
  • 二级参考文献(1)
2013(1)
  • 参考文献(0)
  • 二级参考文献(1)
2014(2)
  • 参考文献(0)
  • 二级参考文献(2)
2015(13)
  • 参考文献(0)
  • 二级参考文献(13)
2016(14)
  • 参考文献(0)
  • 二级参考文献(14)
2017(28)
  • 参考文献(2)
  • 二级参考文献(26)
2018(4)
  • 参考文献(1)
  • 二级参考文献(3)
2019(2)
  • 参考文献(2)
  • 二级参考文献(0)
2019(2)
  • 参考文献(2)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
网络表示学习
拓扑结构
节点属性
变分自编码器
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机科学与探索
月刊
1673-9418
11-5602/TP
大16开
北京市海淀区北四环中路211号北京619信箱26分箱
82-560
2007
chi
出版文献量(篇)
2215
总下载数(次)
4
总被引数(次)
10748
论文1v1指导