作者:
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
随着互联网技术的高速发展,网络中网站的数量成倍增长,这些网站提供了大量的信息,但不同的网站中存在着大量的重复信息,这些信息被搜索引擎反复的索引,因此在用户使用搜索引擎检索信息的时候就会发现有很多是来自不同网站的相同信息.采用信息抽取技术提取网页正文内容,利用加密技术对文本字符串进行转换并形成唯一的数字串,通过对数字串对比,标记出具有相同内容的网页,以此来提高搜索引擎的效率和质量.
推荐文章
基于特征码的网页去重
网页去重
网页特征码
二叉排序树
基于特征串的网页文本并行去重算法
搜索引擎
特征串
网页去重
Simhash
Map/Reduce
基于正文结构和长句提取的网页去重算法
网页去重
正文结构树
长句提取
层次指纹
基于N-Gram的文本去重方法研究
文本去重
文本特征
特征映射
中文信息处理
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 网页去重方法研究
来源期刊 电脑开发与应用 学科 工学
关键词 信息抽取 网页去重 Md5
年,卷(期) 2008,(8) 所属期刊栏目 网络技术
研究方向 页码范围 60-62
页数 3页 分类号 TP393
字数 4028字 语种 中文
DOI 10.3969/j.issn.1003-5850.2008.08.022
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 阎亚杰 四川大学计算机学院 1 17 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (12)
共引文献  (75)
参考文献  (6)
节点文献
引证文献  (17)
同被引文献  (23)
二级引证文献  (25)
1958(1)
  • 参考文献(0)
  • 二级参考文献(1)
1992(1)
  • 参考文献(0)
  • 二级参考文献(1)
1995(1)
  • 参考文献(0)
  • 二级参考文献(1)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
2000(2)
  • 参考文献(0)
  • 二级参考文献(2)
2001(6)
  • 参考文献(1)
  • 二级参考文献(5)
2002(1)
  • 参考文献(0)
  • 二级参考文献(1)
2003(4)
  • 参考文献(4)
  • 二级参考文献(0)
2004(1)
  • 参考文献(1)
  • 二级参考文献(0)
2008(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2009(1)
  • 引证文献(1)
  • 二级引证文献(0)
2010(6)
  • 引证文献(4)
  • 二级引证文献(2)
2011(2)
  • 引证文献(2)
  • 二级引证文献(0)
2012(5)
  • 引证文献(3)
  • 二级引证文献(2)
2013(6)
  • 引证文献(4)
  • 二级引证文献(2)
2014(3)
  • 引证文献(0)
  • 二级引证文献(3)
2015(6)
  • 引证文献(1)
  • 二级引证文献(5)
2016(6)
  • 引证文献(1)
  • 二级引证文献(5)
2017(1)
  • 引证文献(0)
  • 二级引证文献(1)
2018(4)
  • 引证文献(1)
  • 二级引证文献(3)
2019(1)
  • 引证文献(0)
  • 二级引证文献(1)
2020(1)
  • 引证文献(0)
  • 二级引证文献(1)
研究主题发展历程
节点文献
信息抽取
网页去重
Md5
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
电脑开发与应用
月刊
1003-5850
14-1133/TP
大16开
山西省太原市193号信箱
22-96
1985
chi
出版文献量(篇)
4882
总下载数(次)
14
总被引数(次)
21662
论文1v1指导