ChinaUnix.net
相关文章推荐:

快速删除大文件夹

我有一个文件大约有几百M,我想删除其中的一些行(这些行的行号我知道)请问我有什么好办法直接删除这些行。(我不想用grep、cat等再重定向的方法,因为这样太慢)

by toworm - Shell - 2003-09-24 12:08:41 阅读(2470) 回复(16)

相关讨论

有一个很大的文件,大概20多G,想删除它的最后一行 试过很多方法: 用vi打开很慢 用ed,则提示说:File too large 用命令" sed -i '$d' filename ", 也非常慢, 不知sed是不是从头开始读的文件 用C写,利用一个截短函数truncate, 它的参数是long型, 我的文件差不多两百多亿字节,还是超过long的范围 我都快抓狂了 大家帮帮忙, 看有没什么快速高效的实现方法 不胜感激

by iceberg77 - Shell - 2006-08-30 17:09:43 阅读(4211) 回复(21)

问题:一目录下有31998个文件夹,其中有很多文件夹是空的。 目的:删除为空的文件夹,执行效率要高!

by localhostss - Shell - 2009-08-25 22:43:37 阅读(1290) 回复(10)

我想删除文件夹,这个文件夹的OWNER和和GROUP都是unknown,这个文件夹是重PC机上创建的。但现在在PC机上删不掉(提示无法删除,不能访问。。。。),UNIX上也删不掉(UNIX可以访问这个文件夹),超级用户也删不掉,用rm -rf 提示我没权限,想在unix上用chown命令把 owner和GROUP改过来,提示not owner,不知道如何是好啊,请指教。

by xiasha - HP-UX - 2008-04-24 18:31:46 阅读(2578) 回复(5)

我GOOGLE了老半天,不知道删除文件夹该怎么具体实现,哪为达人教下我~~ :mrgreen: :mrgreen: :mrgreen:

by timepie - C/C++ - 2007-11-17 17:14:50 阅读(5467) 回复(12)

我以匿名访问VSFTP服务器,我使用了anon_other_write_enable=YES 奇怪的发现,上传的文件夹不能删除了,请问是怎么回事? 以前都是好好的,自从我同时启用虚拟用户访问FTP的时候就出现了这个情况

by laihou - 服务器应用 - 2006-07-01 09:38:28 阅读(1265) 回复(2)

以前看到有人问过,好像是,烈火兄解答的,没留意,结果我也遇到了。。。 :em02:

by tjppp - Shell - 2005-02-03 12:22:05 阅读(865) 回复(7)

我在vxfs上删除了一个97G的文件,rm xxx回车后,在提示符下没有等待,立即就返回了,但是bdf看到容量没有变化,umount该文件系统提示busy, 估计是在后台执行删除动作,这大概要等多久? 我记得上次删掉一个4G的文件也是这样,bdf百分比一直没有变化,过了几天都这样,但是往里面拷新文件的时候,bdf看到容量一直在更新,减小, 真是神奇,这是什么机制哦?

by unixu - HP-UX - 2009-08-10 10:54:04 阅读(1228) 回复(5)

Solaris一个目录下产生大量临时文件(Strts9999999.tmp),由于数量庞大不能使用rm正常删除(rm Strts99*.tmp时,报错:arg list too long),该怎么写个Shell来做这个删除操作,急!!! 多谢!!!

by winter-ch - Shell - 2004-01-02 09:24:47 阅读(670) 回复(3)

需要比较大文件,file1 file2,每个文件数据到在50万以上,找出file1 file2不相同的行. 原本使用diff的,但发现diff 比较的文件太大时候就不稳定,有些是相同的也当成不相同输出的. 用bdiff也不行,当file1 file2 数量差异常过大时候,结果就不准确. 请问有什么办法可以快速比较吗? 谢谢

by liang573728 - Shell - 2008-06-26 16:55:03 阅读(2843) 回复(16)

scounix机器,df -v已经85%,请教如何找到占用空间的大文件夹?

by fly99sky - 其他UNIX - 2005-06-29 09:36:54 阅读(538) 回复(1)