免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
123456789
最近访问板块 发新帖
楼主: howge
打印 上一主题 下一主题

求助:总共800G 的文件,如何将它快速删除 [复制链接]

论坛徽章:
1
午马
日期:2013-09-01 15:14:32
81 [报告]
发表于 2010-05-31 11:31 |只看该作者
本帖最后由 lvpk 于 2010-05-31 11:54 编辑

N多文件快速删除 有个fastrm命令

http://linux.die.net/man/1/fastrm

命令在inn包里

论坛徽章:
0
82 [报告]
发表于 2010-05-31 11:53 |只看该作者
有意思吗?????????、

论坛徽章:
1
天秤座
日期:2013-10-23 13:20:42
83 [报告]
发表于 2010-05-31 15:54 |只看该作者
回复  lkk2003rty


    呵呵~一般生产库都是用的大文件表空间,也就是一个文件的。
iori809 发表于 2010-05-21 13:21


你们的生产库是这么搞的?
即使是使用裸设备我们也不会让单个数据库文件上10G啊

论坛徽章:
0
84 [报告]
发表于 2010-05-31 19:42 |只看该作者
回复 84# jerryjzm


    http://book.51cto.com/art/200812/101591.htm

看看这个吧~我只是说支持~但具体使用不使用得看具体的应用吧
据我所知TB级的生产库应该都用大文件表空间管理,否则管理成本太高了

论坛徽章:
1
天秤座
日期:2013-10-23 13:20:42
85 [报告]
发表于 2010-06-02 13:34 |只看该作者
本帖最后由 jerryjzm 于 2010-06-02 13:36 编辑

哦,首先是10g,另外你的意思是支持!我还以为你们使用了

论坛徽章:
0
86 [报告]
发表于 2010-06-07 12:36 |只看该作者
回复 39# congli


    在10万个文件的时候,find <dir> -depth -type d -exec rmdir {} \;
没有报告错误,每秒大概可以删除100个目录,比xargs的效率高。

论坛徽章:
0
87 [报告]
发表于 2010-06-07 13:59 |只看该作者
回复  congli


    在10万个文件的时候,find  -depth -type d -exec rmdir {} \;
没有报告错误,每秒 ...
feiliang1983 发表于 2010-06-07 12:36

你的这个exec就决定了 这个不好使
在使用find命令的-exec选项处理匹配到的文件时, find命令将所有匹配到的文件一起传递给exec执行。但有些系统对能够传递给exec的命令长度有限制,这样在find命令运行几分钟之后,就会出现溢出错误。错误信息通常是“参数列太长”或“参数列溢出”。这就是xargs命令的用处所在,特别是与find命令一起使用

论坛徽章:
0
88 [报告]
发表于 2010-06-08 08:32 |只看该作者
今天在群里面,有个哥们说要删除一个文件,用rm -rf  文件删了2个小时,只删了50G ,文件大小不一,总共800 ...
howge 发表于 2010-05-21 11:38



    格式化删除:

mkfs -t 文件系统类型 /dev/设备名

论坛徽章:
1
寅虎
日期:2013-09-29 23:15:15
89 [报告]
发表于 2010-06-08 09:14 |只看该作者
回复 87# feiliang1983


    10万个文件,不代表10万个目录.

论坛徽章:
0
90 [报告]
发表于 2010-07-05 10:19 |只看该作者
楼主得看看文件大小和个数,我经常删除几百G的文件,上T的也删除过,单个数都在几百以内,如果文件个数上十万,那速度就是一个慢噢。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP