免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 27173 | 回复: 70
打印 上一主题 下一主题

[C] 发布一个单机版的spider,分布式版本还在开发中 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-06-11 18:12 |只看该作者 |倒序浏览
依赖库:libevbase http://sbase.googlecode.com/files/libevbase-0.0.14.tar.gz
下载下来的数据压缩存储到一个文件里,可通过meta索引去遍历,这个版本是个demo...
希望有兴趣的跟我一块开发吧,分布式版本目前还在完善DNS解析和文件存储上.



http://libibase.googlecode.com/files/tlink.tar.gz

使用方法,执行里边的s.sh编译会生成可执行文件 tlink

tlink使用方法:
Usage:./tlink hostname path connections

实例:
./tlink  www.sina.com.cn / 32

其实域名,其实路径,连接最大数.

[ 本帖最后由 redor 于 2009-3-9 11:50 编辑 ]

tlink.tar.gz

68.23 KB, 下载次数: 219

论坛徽章:
0
2 [报告]
发表于 2008-06-11 18:42 |只看该作者
mARK

论坛徽章:
1
2015年辞旧岁徽章
日期:2015-03-03 16:54:15
3 [报告]
发表于 2008-06-11 20:11 |只看该作者
能不能简单介绍一下这是用来干什么的.

论坛徽章:
0
4 [报告]
发表于 2008-06-11 20:17 |只看该作者
原帖由 cookis 于 2008-6-11 20:11 发表
能不能简单介绍一下这是用来干什么的.



抓页面的蜘蛛...搜索引擎用的.....

论坛徽章:
0
5 [报告]
发表于 2008-06-11 20:19 |只看该作者
原帖由 redor 于 2008-6-11 20:17 发表



抓页面的蜘蛛...搜索引擎用的.....


再接再励。

论坛徽章:
0
6 [报告]
发表于 2008-06-11 20:41 |只看该作者
楼主如何避免重复抓取?

论坛徽章:
0
7 [报告]
发表于 2008-06-11 20:43 |只看该作者
原帖由 wwdwwd 于 2008-6-11 20:41 发表
楼主如何避免重复抓取?



URL MD5放内存 .... 排重

论坛徽章:
0
8 [报告]
发表于 2008-06-11 20:52 |只看该作者
原帖由 redor 于 2008-6-11 20:43 发表



URL MD5放内存 .... 排重

在每一次爬之前都把已经爬过的url提取出来放到内存中,然后爬的时候每爬一个页面先在内存里面查找一遍,有的话不管,没的话再爬?这样效率会不会低?

论坛徽章:
0
9 [报告]
发表于 2008-06-11 20:53 |只看该作者
不错,支持~!

论坛徽章:
0
10 [报告]
发表于 2008-06-11 21:12 |只看该作者
原帖由 wwdwwd 于 2008-6-11 20:52 发表

在每一次爬之前都把已经爬过的url提取出来放到内存中,然后爬的时候每爬一个页面先在内存里面查找一遍,有的话不管,没的话再爬?这样效率会不会低?



其实实际操作的时候是有一个URL队列,也可以是一个队列文件, 每次要添加URL进去的时候都检查一下是否重复,如果不重复就添加,这里的URL添加有两种,一种是人工添加,一种是自动从页面里提取出来的URL. 如果down机的话就把原来的队列URL里的所有URL做一次MD5放到内存便于查询...
大概就是这样....
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP