基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在搜索引擎的检索结果页面中,用户经常会得到内容相似的重复页面,它们中大多是由于网站之间转载造成的。为提高检索效率和用户满意度,提出一种基于特征向量的大规模中文近似网页检测算法DDW(Detect near—Duplicate Web Pages)。试验证明,比起其他网页去重算法(I—Match),DDW具有很好的抵抗噪声的能力及近似线性的时间和空间复杂度,在大规模实验中获得良好测试结果。
推荐文章
基于特征串的网页文本并行去重算法
搜索引擎
特征串
网页去重
Simhash
Map/Reduce
基于字集特征向量的网页消重改进算法
字集向量
机器码向量
网页消重
数字指纹
MD5
基于正文结构和长句提取的网页去重算法
网页去重
正文结构树
长句提取
层次指纹
基于特征向量的文本信息过滤算法研究
文本信息
特征向量
相似度
信息过滤
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 一个基于特征向量的近似网页去重算法
来源期刊 中国索引 学科 工学
关键词 网页去重算法 特征向量 近似网页 支持向量机
年,卷(期) 2009,(1) 所属期刊栏目
研究方向 页码范围 11-14
页数 4页 分类号 TP393.092
字数 语种
DOI
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (60)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2009(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
网页去重算法
特征向量
近似网页
支持向量机
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
中国索引
年刊
16开
上海市邯郸路220号 复旦大学图书馆40
2003
chi
出版文献量(篇)
1029
总下载数(次)
1
总被引数(次)
1360
论文1v1指导