免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 3633 | 回复: 16
打印 上一主题 下一主题

提取文件的办法 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-06-13 15:24 |只看该作者 |倒序浏览
5可用积分
大家好,现在一个目录下有很多文件
文件名像这样的
2008-06-06-02-18-40-1_hb143_61.129.13.143.1.log.gz
2008-06-06-02-18-45-1_xs40_60.190.41.40.1.log.gz
2008-06-06-02-38-30-1_cb225_203.110.168.225.1.log.gz
2008-06-06-02-38-40-1_hb143_61.129.13.143.1.log.gz
2008-06-06-02-38-45-1_cb201_203.110.168.201.1.log.gz
2008-06-06-02-38-45-1_xs40_60.190.41.40.1.log.gz
2008-06-06-02-38-51-1_hbjm243_219.138.124.243.1.log.gz
2008-06-06-02-38-53-1_ls140_61.174.63.140.1.log.gz
2008-06-06-02-39-04-1_hb142_61.129.13.142.1.log.gz
2008-06-06-02-51-04-1_hb142_61.129.13.142.1.log.gz
123
456
789

ad
dfdffd
dsasdafaf
sfsdaa
我想把文件名中含有61.129.13.142.1的提取出来怎么弄?
cp *61\.129\.13\.142\.1*.* newdir 这样可以吗
还是 zcat  *61\.129\.13\.142\.1*.GZ | gzip -d new.GZ

最佳答案

查看完整内容

我的环境没有这个问题。你可以用find+xargs试试:注: -print0, -0 都是数字零, 而不是字母O不过也许你的环境不支持这些选项。试试另一个:[ 本帖最后由 blackold 于 2008-6-13 20:02 编辑 ]

论坛徽章:
5
2015年辞旧岁徽章
日期:2015-03-03 16:54:152015年迎新春徽章
日期:2015-03-04 09:50:282015年亚洲杯之朝鲜
日期:2015-03-13 22:47:33IT运维版块每日发帖之星
日期:2016-01-09 06:20:00IT运维版块每周发帖之星
日期:2016-03-07 16:27:44
2 [报告]
发表于 2008-06-13 15:24 |只看该作者

回复 #10 云凌水 的帖子

我的环境没有这个问题。
你可以用find+xargs试试:

  1. $ find -maxdepth 1 -type f -name '*61.129.13.142.1*' -print0 | xargs -0 -I {} cp {} newdir
复制代码

注: -print0, -0 都是数字, 而不是字母O

不过也许你的环境不支持这些选项。试试另一个:

  1. $ find -maxdepth 1 -type f -name '*61.129.13.142.1*'  | xargs -I {} cp {} newdir
复制代码

[ 本帖最后由 blackold 于 2008-6-13 20:02 编辑 ]

论坛徽章:
5
2015年辞旧岁徽章
日期:2015-03-03 16:54:152015年迎新春徽章
日期:2015-03-04 09:50:282015年亚洲杯之朝鲜
日期:2015-03-13 22:47:33IT运维版块每日发帖之星
日期:2016-01-09 06:20:00IT运维版块每周发帖之星
日期:2016-03-07 16:27:44
3 [报告]
发表于 2008-06-13 15:38 |只看该作者

回复 #1 云凌水 的帖子

try:

  1. cp *61.129.13.142.1* newdir
复制代码


如果这样的文件很多:

  1. echo -n *61.129.13.142.1* | xargs -d" " -I {} cp {} newdir
复制代码

[ 本帖最后由 blackold 于 2008-6-13 15:40 编辑 ]

论坛徽章:
1
荣誉会员
日期:2011-11-23 16:44:17
4 [报告]
发表于 2008-06-13 15:40 |只看该作者
ls *61.129.13.142.1*| xargs -i cp {} /path/to/

论坛徽章:
0
5 [报告]
发表于 2008-06-13 15:53 |只看该作者
错误 -bash: /bin/ls: Argument list too long
本生符合的文件也很多
不知道是不是这个原因
再帮忙一下

[ 本帖最后由 云凌水 于 2008-6-13 16:11 编辑 ]

论坛徽章:
5
2015年辞旧岁徽章
日期:2015-03-03 16:54:152015年迎新春徽章
日期:2015-03-04 09:50:282015年亚洲杯之朝鲜
日期:2015-03-13 22:47:33IT运维版块每日发帖之星
日期:2016-01-09 06:20:00IT运维版块每周发帖之星
日期:2016-03-07 16:27:44
6 [报告]
发表于 2008-06-13 16:23 |只看该作者
try :

  1. $ find -maxdepth 1 -type f -name '*61.129.13.142.1*' -exec cp {} newdir \;
复制代码

论坛徽章:
0
7 [报告]
发表于 2008-06-13 16:30 |只看该作者
原帖由 云凌水 于 2008-6-13 15:24 发表
大家好,现在一个目录下有很多文件
文件名像这样的
2008-06-06-02-18-40-1_hb143_61.129.13.143.1.log.gz
2008-06-06-02-18-45-1_xs40_60.190.41.40.1.log.gz
2008-06-06-02-38-30-1_cb225_203.110.168.225 ...


在该目录下创建一个没有的目录如onlyone
mv *61.129.13.143* onlyone
全在onlyone中了,现在想如何都可以,mv 速度上会快许多,如果在同一分区的话

[ 本帖最后由 chzht001 于 2008-6-13 16:33 编辑 ]

论坛徽章:
0
8 [报告]
发表于 2008-06-13 16:44 |只看该作者
不能移动这些文件,规定不能移动

论坛徽章:
1
荣誉会员
日期:2011-11-23 16:44:17
9 [报告]
发表于 2008-06-13 16:46 |只看该作者
black的方法是对付文件太多的正解。

论坛徽章:
0
10 [报告]
发表于 2008-06-13 16:46 |只看该作者
回5楼我没有看懂这个
同时怀疑加上了单引号那个*不起作用了
直接运行你给的报错
find: missing argument to `-exec'
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP