免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 1131 | 回复: 2
打印 上一主题 下一主题

标题: 有什么命令可以把一个页面的相关连接都下载下来? [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2006-12-21 11:36 |只看该作者 |倒序浏览
我想写一个脚本,在不同的时间测试web服务器打开页面的速度,一个地址的相关连接文件如jpg,html.css,.gif文件等,总之在浏览器地址拦输入时显示的所有东西都下载过来,比如http://www.tom.com,不知道有什乮..?我看了wget 和curl都好象只能下载单个文件的?

论坛徽章:
0
2 [报告]
发表于 2006-12-21 18:01 |只看该作者
都wget下来了,再用表达式匹配这个文件,任何链接都可以抓了啊,要抓几层都可以。

求职 : 数据库管理员
论坛徽章:
0
3 [报告]
发表于 2006-12-21 19:34 |只看该作者
wget -r -l level
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP