免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 3258 | 回复: 5
打印 上一主题 下一主题

可否从wget lynx的源码中找到网络爬虫程序需要的东西 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2005-12-15 21:30 |只看该作者 |倒序浏览
如题
想写一个网络爬虫,给定某个网址
然后抓到网页并建立数据库索引
哪位高人对此有好的建议
小弟洗耳恭听

论坛徽章:
0
2 [报告]
发表于 2005-12-16 08:55 |只看该作者
最好就是弄别人的远代码读,然后自己写需求

论坛徽章:
0
3 [报告]
发表于 2005-12-20 13:23 |只看该作者

论坛徽章:
0
4 [报告]
发表于 2005-12-22 11:06 |只看该作者
http://www.searchtools.com/robots/robot-code.html
上面的连接有可供参考

我在htdig的基础上做过一个项目,对htdig还是蛮熟悉的,作为crawler的话,如果要求不高,可以采用。

它是一个单进程应用,在处理连接问题上,用的方法比较原始,在大规模的爬行应用中,效率并不高。

论坛徽章:
0
5 [报告]
发表于 2005-12-22 11:15 |只看该作者
qq群:18807310

论坛徽章:
0
6 [报告]
发表于 2005-12-22 15:56 |只看该作者
larbin就是一个高效的爬虫
简单的可以用 wget
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP