免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12
最近访问板块 发新帖
楼主: ztj2247
打印 上一主题 下一主题

[文本处理] wget 下载多个同名文件 将内容重定向到同一个文件如何写? [复制链接]

论坛徽章:
15
2015年辞旧岁徽章
日期:2015-03-03 16:54:15双鱼座
日期:2015-01-15 17:29:44午马
日期:2015-01-06 17:06:51子鼠
日期:2014-11-24 10:11:13寅虎
日期:2014-08-18 07:10:55酉鸡
日期:2014-04-02 12:24:51双子座
日期:2014-04-02 12:19:44天秤座
日期:2014-03-17 11:43:36亥猪
日期:2014-03-13 08:13:51未羊
日期:2014-03-11 12:42:03白羊座
日期:2013-11-20 10:15:18CU大牛徽章
日期:2013-04-17 11:48:45
11 [报告]
发表于 2012-08-22 14:31 |只看该作者
  1. wget -O outputfile URL1 URL2 URL3
  2. cat outputfile  >> originalfile
复制代码

论坛徽章:
5
2015年辞旧岁徽章
日期:2015-03-03 16:54:152015年迎新春徽章
日期:2015-03-04 09:50:282015年亚洲杯之朝鲜
日期:2015-03-13 22:47:33IT运维版块每日发帖之星
日期:2016-01-09 06:20:00IT运维版块每周发帖之星
日期:2016-03-07 16:27:44
12 [报告]
发表于 2012-08-22 14:34 |只看该作者
回复 10# ztj2247
  1. wget -O outputfile url1 url2
复制代码
执行后, outputfile 的内容为 url1 url2,相当于cat url1 url2 > outputfile

如果你要保留之前的内容,在执行 wget 命令之前就保存就行了。

论坛徽章:
5
2015年辞旧岁徽章
日期:2015-03-03 16:54:152015年迎新春徽章
日期:2015-03-04 09:50:282015年亚洲杯之朝鲜
日期:2015-03-13 22:47:33IT运维版块每日发帖之星
日期:2016-01-09 06:20:00IT运维版块每周发帖之星
日期:2016-03-07 16:27:44
13 [报告]
发表于 2012-08-22 14:36 |只看该作者
本帖最后由 blackold 于 2012-08-22 14:36 编辑

或者
  1. wget -O - url1 url2 >> outputfile
复制代码

论坛徽章:
0
14 [报告]
发表于 2012-08-22 14:38 |只看该作者
本帖最后由 personball 于 2012-08-22 14:44 编辑

curl 有超时选项的,自己去找男人man一下回复 9# ztj2247




--connect-timeout <seconds>
              Maximum time in seconds that you allow  the  connection  to  the
              server  to  take.   This  only limits the connection phase, once
              curl has connected this option is of no more use. See  also  the
              -m, --max-time option.

-m, --max-time <seconds>
              Maximum time in seconds that you allow the  whole  operation  to
              take.   This is useful for preventing your batch jobs from hang‐
              ing for hours due to slow networks or  links  going  down.   See
              also the --connect-timeout option.


断点续传

  -C, --continue-at <offset>
              Continue/Resume a previous file transfer at  the  given  offset.
              The  given  offset  is  the  exact  number of bytes that will be
              skipped, counting from the beginning of the source  file  before
              it is transferred to the destination.  If used with uploads, the
              FTP server command SIZE will not be used by curl.

              Use "-C -" to tell curl to automatically find out  where/how  to
              resume  the  transfer. It then uses the given output/input files
              to figure that out.

              If this option is used several times, the last one will be used.
重试次数,间隔及时长:

--retry <num>
              If a transient error is returned when curl tries  to  perform  a
              transfer,  it  will retry this number of times before giving up.
              Setting the number to 0 makes curl do no retries (which  is  the
              default).  Transient  error  means either: a timeout, an FTP 4xx
              response code or an HTTP 5xx response code.

              When curl is about to retry a transfer, it will first  wait  one
              second  and  then for all forthcoming retries it will double the
              waiting time until it reaches 10 minutes which then will be  the
              delay  between  the rest of the retries.  By using --retry-delay
              you  disable  this  exponential  backoff  algorithm.  See   also
              --retry-max-time  to  limit  the total time allowed for retries.
              (Added in 7.12.3)

              If this option is  used  multiple  times,  the  last  occurrence
              decide the amount.

--retry-delay <seconds>
              Make  curl  sleep  this  amount of time before each retry when a
              transfer has failed with  a  transient  error  (it  changes  the
              default  backoff time algorithm between retries). This option is
              only interesting if --retry is also used. Setting this delay  to
              zero  will  make  curl  use the default backoff time.  (Added in
              7.12.3)

              If this option is  used  multiple  times,  the  last  occurrence
              determines the amount.

       --retry-max-time <seconds>
              The  retry  timer  is  reset  before the first transfer attempt.
              Retries will be done as usual (see --retry) as long as the timer
              hasn't reached this given limit. Notice that if the timer hasn't
              reached the limit, the request will be made and  while  perform‐
              ing,  it may take longer than this given time period. To limit a
              single request′s maximum time, use  -m,  --max-time.   Set  this
              option to zero to not timeout retries. (Added in 7.12.3)

              If  this  option  is  used  multiple  times, the last occurrence
              determines the amount.
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP