有一个很大的文件,大概20多G,想删除它的最后一行 试过很多方法: 用vi打开很慢 用ed,则提示说:File too large 用命令" sed -i '$d' filename ", 也非常慢, 不知sed是不是从头开始读的文件 用C写,利用一个截短函数truncate, 它的参数是long型, 我的文件差不多两百多亿字节,还是超过long的范围 我都快抓狂了 大家帮帮忙, 看有没什么快速高效的实现方法 不胜感激
我在vxfs上删除了一个97G的文件,rm xxx回车后,在提示符下没有等待,立即就返回了,但是bdf看到容量没有变化,umount该文件系统提示busy, 估计是在后台执行删除动作,这大概要等多久? 我记得上次删掉一个4G的文件也是这样,bdf百分比一直没有变化,过了几天都这样,但是往里面拷新文件的时候,bdf看到容量一直在更新,减小, 真是神奇,这是什么机制哦?
Solaris一个目录下产生大量临时文件(Strts9999999.tmp),由于数量庞大不能使用rm正常删除(rm Strts99*.tmp时,报错:arg list too long),该怎么写个Shell来做这个删除操作,急!!! 多谢!!!
需要比较大文件,file1 file2,每个文件数据到在50万以上,找出file1 file2不相同的行. 原本使用diff的,但发现diff 比较的文件太大时候就不稳定,有些是相同的也当成不相同输出的. 用bdiff也不行,当file1 file2 数量差异常过大时候,结果就不准确. 请问有什么办法可以快速比较吗? 谢谢
ufs文件系统,很大的文件,我知道要删除的位置和字节数, 示例: 文件123(3字节),(seek到第二个位置开始删除1个字节),删除2,结果13(2字节) 要求:省时,省内存,省io操作. 怎么写代码呢?
有oralce一补丁目录子目录非常多,删除很慢,所以运行一下命令。 cd /pre1159/dest ls -l|awk '{print "nohup rm -rf " $9 " &"}' >;tmp.sh tmp.sh 这样每个子目录会启1个删除程序,要快得多。 :wink:
我有一个很大的文件,大概20多G,想删除它的最后一行 用vi打开很慢 用ed,则提示说:File too large 用命令" sed -i '$d' filename ", 也非常慢, 不知sed是不是从头开始读的文件 用C写,利用一个截短函数truncate, 它的参数是long型, 我的文件差不多两百多亿字节,还是超过long的范围 我都快抓狂了 大家帮帮忙, 看有没什么快速高效的实现方法 不胜感激