[发明专利]一种网页重复内容过滤方法无效

专利信息
申请号: 200610028059.7 申请日: 2006-06-22
公开(公告)号: CN101093485A 公开(公告)日: 2007-12-26
发明(设计)人: 胡创义;金骏 申请(专利权)人: 上海新纳广告传媒有限公司
主分类号: G06F17/30 分类号: G06F17/30;G06F21/00
代理公司: 上海科盛知识产权代理有限公司 代理人: 赵志远
地址: 200050上*** 国省代码: 上海;31
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 网页 重复 内容 过滤 方法
【权利要求书】:

1.一种网页重复内容过滤方法,其特征在于,包括文件服务器、网页内容提取服务器、网页过滤服务器、爬虫服务器,该方法包括以下步骤:

a.爬虫服务器把从网页抓取下来的数据发送到网页内容提取服务器;

b.网页内容提取服务器分析来自爬虫服务器的数据,把内容提取出来,并且使用哈希算法对所提取的内容进行哈希获得哈希码,然后把哈希码和内容、抓取的时间等信息一起存入放到文件服务器;

c.网页过滤服务器分析内容服务器里面的信息,对每个由步骤b中获得的哈希码出现冲突的网站中出现冲突的数量,对冲突的数量和该网站的网页数量设定一个阀值,如果一个网站的冲突的数量和该网站的网页数量高于该阀值,则直接通知爬虫服务器,禁止该网站,并过滤掉该网页的所有内容,如果低于该阀值而且抓取的时间较早,则提高该网页的重要性,否则降低该网页的重要性或过滤掉。

2.根据权利要求1所述的一种网页重复内容过滤方法,其特征在于,所述的文件服务器可以采用NDFS(Distributed Nutch File System,分布式Nutch文件系统)或Google File System(Google文件系统),也可以采用其它普通的文件系统。

3.根据权利要求1所述的一种网页重复内容过滤方法,其特征在于,所述的爬虫服务器采用开源爬虫程序larbin。

4.根据权利要求1所述的一种网页重复内容过滤方法,其特征在于,所述的哈希算法可以采用MD4或SHAl哈希算法,也可以采用私有的哈希算法。

5.根据权利要求4所述的一种网页重复内容过滤方法,其特征在于,所述的私有的哈希算法可以采用在文章中采样部分文字进行内码相加。

6.根据权利要求1所述的一种网页重复内容过滤方法,其特征在于,该方法通过用转载文章数量除以网站网页数量的方法计算出每个出现哈希值有冲突网站的转载率,并与阀值相比较,把高于阀值的网站列入黑名单,通知larbin禁止对该网站的抓取,删除文件服务器上有关该网站的数据;否则对剩下的网站按抓取时间进行排序,抓取时间早的则提高这个网站拥有该哈希值的网页的得分,对抓取时间晚的则降低得分。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海新纳广告传媒有限公司,未经上海新纳广告传媒有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/200610028059.7/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top