基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
本文从获取好的神经网络泛化能力出发,首先提出了将Hebbian学习与增加问题复杂性统一起来的思想,并通过在总的误差函数中增加一限制函数来实现Hebbian学习.基于此,提出了一种将误差驱动的任务学习与Hebbian规则的模型学习相结合的E-H方法.然后,根据模型学习应同时考虑减小网络复杂性和增加问题复杂性的思想,又提出了一种将误差驱动的学习与Hebbian规则、简单的权退化法结合起来,共同来提高神经网络的泛化能力的E-H-W方法.最后通过大量实例仿真将它们与纯误差驱动的方法、权退化法、其它文献中的相关方法进行了比较.结果表明我们的方法具有最好的泛化能力,是很有效的神经网络学习方法.
推荐文章
谈英语学习方法和学习方式
英语学习
方法
方式
基于深度神经网络的少样本学习综述
少样本学习
数据增强
迁移学习
度量学习
元学习
应用改进的神经网络学习方法预测储层参数
神经网络
储集层
参数
测井解释
塔里木盆地
高中数学"四e学习法"
基本方法
逻辑化方法
数学思想
学习策略
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 神经网络中将任务学习与模型学习相结合的E-H和E-H-W学习方法
来源期刊 电子学报 学科 工学
关键词 神经网络 模型学习 任务学习 泛化能力 Hebbian学习
年,卷(期) 2004,(2) 所属期刊栏目 学术论文
研究方向 页码范围 278-281
页数 4页 分类号 TP183
字数 4468字 语种 中文
DOI 10.3321/j.issn:0372-2112.2004.02.023
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 张立明 复旦大学电子工程系 104 1550 23.0 34.0
2 武妍 同济大学计算机科学与工程系 58 726 15.0 24.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (11)
节点文献
引证文献  (4)
同被引文献  (15)
二级引证文献  (51)
1989(1)
  • 参考文献(1)
  • 二级参考文献(0)
1990(2)
  • 参考文献(2)
  • 二级参考文献(0)
1992(1)
  • 参考文献(1)
  • 二级参考文献(0)
1993(1)
  • 参考文献(1)
  • 二级参考文献(0)
1995(2)
  • 参考文献(2)
  • 二级参考文献(0)
1997(1)
  • 参考文献(1)
  • 二级参考文献(0)
1998(1)
  • 参考文献(1)
  • 二级参考文献(0)
2000(1)
  • 参考文献(1)
  • 二级参考文献(0)
2001(1)
  • 参考文献(1)
  • 二级参考文献(0)
2004(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2009(3)
  • 引证文献(1)
  • 二级引证文献(2)
2010(4)
  • 引证文献(0)
  • 二级引证文献(4)
2011(10)
  • 引证文献(0)
  • 二级引证文献(10)
2012(3)
  • 引证文献(1)
  • 二级引证文献(2)
2013(5)
  • 引证文献(0)
  • 二级引证文献(5)
2014(3)
  • 引证文献(0)
  • 二级引证文献(3)
2015(7)
  • 引证文献(0)
  • 二级引证文献(7)
2016(5)
  • 引证文献(0)
  • 二级引证文献(5)
2017(2)
  • 引证文献(0)
  • 二级引证文献(2)
2018(6)
  • 引证文献(1)
  • 二级引证文献(5)
2019(7)
  • 引证文献(1)
  • 二级引证文献(6)
研究主题发展历程
节点文献
神经网络
模型学习
任务学习
泛化能力
Hebbian学习
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
电子学报
月刊
0372-2112
11-2087/TN
大16开
北京165信箱
2-891
1962
chi
出版文献量(篇)
11181
总下载数(次)
11
总被引数(次)
206555
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导