免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 1826 | 回复: 8
打印 上一主题 下一主题

怎么控制每次只连接100个地址 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2007-05-04 08:05 |只看该作者 |倒序浏览
/etc/a.sh里的内容

#!/bin/sh
cat /tmp/url.txt | grep -v '^#' | while read line
do
chameleon=`echo $line | awk -F ',' '{print $1}'`
bx=$(lynx -mime_header -accept_all_cookies -head $chameleon |
grep 'Content-Length:')
echo "$chameleon $bx" >>/tmp/url_done.txt
done


/tmp/url.txt里的内容
http://www.abc.com/1.exe
http://www.abc.com/2.exe
http://www.abc.com/3.exe

url.txt里如果内容太多,比如10000个就会出现错误,
怎么让每次只连接100个地址,连接完成后,再连接100

论坛徽章:
15
2015年辞旧岁徽章
日期:2015-03-03 16:54:15双鱼座
日期:2015-01-15 17:29:44午马
日期:2015-01-06 17:06:51子鼠
日期:2014-11-24 10:11:13寅虎
日期:2014-08-18 07:10:55酉鸡
日期:2014-04-02 12:24:51双子座
日期:2014-04-02 12:19:44天秤座
日期:2014-03-17 11:43:36亥猪
日期:2014-03-13 08:13:51未羊
日期:2014-03-11 12:42:03白羊座
日期:2013-11-20 10:15:18CU大牛徽章
日期:2013-04-17 11:48:45
2 [报告]
发表于 2007-05-04 10:25 |只看该作者
大概的意思是这样的,

i=1
sed '$i,$i+100' url.txt
i=$i+101

自己做个循环。

论坛徽章:
0
3 [报告]
发表于 2007-05-04 11:09 |只看该作者
看不懂,能不能根据我上面的代码,帮我修改进去

或根据这代码修改
for url in `cat /tmp/url.txt`
do
{
echo " $url"
bx=$(lynx -mime_header -accept_all_cookies -head $url | grep 'Content-Length:')
echo $bx
}
done

[ 本帖最后由 1soft 于 2007-5-4 11:10 编辑 ]

论坛徽章:
15
2015年辞旧岁徽章
日期:2015-03-03 16:54:15双鱼座
日期:2015-01-15 17:29:44午马
日期:2015-01-06 17:06:51子鼠
日期:2014-11-24 10:11:13寅虎
日期:2014-08-18 07:10:55酉鸡
日期:2014-04-02 12:24:51双子座
日期:2014-04-02 12:19:44天秤座
日期:2014-03-17 11:43:36亥猪
日期:2014-03-13 08:13:51未羊
日期:2014-03-11 12:42:03白羊座
日期:2013-11-20 10:15:18CU大牛徽章
日期:2013-04-17 11:48:45
4 [报告]
发表于 2007-05-04 12:40 |只看该作者
for url in `sed '1,100'p /tmp/url.txt`
do
{
echo " $url"
bx=$(lynx -mime_header -accept_all_cookies -head $url | grep 'Content-Length:')
echo $bx
}
done

这个例子就只执行前一百行,你自己在加个循环,就可以了.

论坛徽章:
0
5 [报告]
发表于 2007-05-04 13:08 |只看该作者
没有执行到100,全执行完了
500个地址全被一次连接了

论坛徽章:
0
6 [报告]
发表于 2007-05-04 13:50 |只看该作者
原帖由 rdcwayx 于 2007-5-4 12:40 发表
for url in `sed '1,100'p /tmp/url.txt`

sed -n '1,100p' /tmp/url.txt

论坛徽章:
0
7 [报告]
发表于 2007-05-04 15:18 |只看该作者
这样可以
检查100个就停止了,我想让它继续检查全部,
每次100个,一直到完成url.txt里全部的地址
每个地址延时10秒,就当废弃地址,自动跳过去,要怎么写呢




可能是我没说清楚
比如url.txt里有10000个地址
如果一下检查全部地址,系统会出错
只好每次检查一部分,分段的把全部的地址检查完毕这样

[ 本帖最后由 1soft 于 2007-5-4 15:41 编辑 ]

论坛徽章:
0
8 [报告]
发表于 2007-05-04 16:41 |只看该作者
你的文件超大不要用cat
在while read line;do 里面区配^#应该不会出错

论坛徽章:
0
9 [报告]
发表于 2007-05-04 16:58 |只看该作者
#!/bin/sh
while read line
do
chameleon=`echo $line | awk -F ',' '{print $1}'`
bx=$(lynx -mime_header -accept_all_cookies -head $chameleon | grep 'Content-Le
ngth:')
echo "$chameleon $bx" >>/tmp/done.txt
done</tmp/url.txt

这样一次读一行,怎么修改让一次读100行呢

[ 本帖最后由 1soft 于 2007-5-4 17:43 编辑 ]
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP