免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
楼主: redor
打印 上一主题 下一主题

[C] 发布一个单机版的spider,分布式版本还在开发中 [复制链接]

论坛徽章:
0
21 [报告]
发表于 2008-06-12 16:20 |只看该作者
mark

论坛徽章:
0
22 [报告]
发表于 2008-06-12 17:33 |只看该作者
恩,正则主要是用于html filter,这样

1. 索引可以少做一些匹配查找
2. 搜索结果可以更加干净

论坛徽章:
0
23 [报告]
发表于 2008-06-12 20:42 |只看该作者
原帖由 benjiam 于 2008-6-12 20:22 发表
我也做过。

但是url 重复的问题 其实还是很难解决的。量大了 靠内存是解决不了的。我感觉需要靠数据库来解决。

我的想法 是需要中心专门的url 识别服务器来做。  我的设想 是 抓取  任务分配, 抓取下来的 ...



其实URL MD5排重对内存的占用不会特别大,所以这个可以忽略,其实数据库也可以做排重, 我这里的URL排重和URL提取都是中心服务器负责.
下载节点就是从中心服务器取得URL列表和解析完的IPORT,也就是下载节点只负责下载数据然后传给中心服务器.

至于分词,其实分词要做得很好还是比较难的,至少比下载难,呵呵,我只是做了词的匹配部分, 如果需要做停词,歧义等就需要好好学习学习了.

我的spider其实就是周末两天写完的,不过调了两个星期至今还没完全把分布式版本调得让我满意.....

论坛徽章:
0
24 [报告]
发表于 2008-06-12 21:18 |只看该作者
我有兴趣qq:21683187

论坛徽章:
0
25 [报告]
发表于 2008-06-12 22:38 |只看该作者
。我的爬虫用python写的,比C简单很多,url判重通过数据库,url加密成md5做主键,现在爬了1亿多个url和file暂时没什么问题,以后数据量再大些可能需要把md5映射成数字指纹

论坛徽章:
0
26 [报告]
发表于 2008-06-13 06:50 |只看该作者
原帖由 saite 于 2008-6-12 22:38 发表
。我的爬虫用python写的,比C简单很多,url判重通过数据库,url加密成md5做主键,现在爬了1亿多个url和file暂时没什么问题,以后数据量再大些可能需要把md5映射成数字指纹



HASH?

论坛徽章:
0
27 [报告]
发表于 2008-06-13 08:42 |只看该作者
ding

论坛徽章:
0
28 [报告]
发表于 2008-06-13 15:49 |只看该作者
兄弟留个q或者是email吧?

论坛徽章:
0
29 [报告]
发表于 2008-06-13 15:56 |只看该作者
不错

论坛徽章:
0
30 [报告]
发表于 2008-06-13 17:52 |只看该作者
搜了下楼主的帖子,发现楼主06年就提出要做 p2p web search engine ,很好的眼光。现在已经有几个这样的开源产品出来拉。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP