Chinaunix

标题: 郁闷:linux / 分区无故空间被占满 [打印本页]

作者: thrack    时间: 2006-02-09 18:35
标题: 郁闷:linux / 分区无故空间被占满
/分区分了10G, 用df 察看,/分区占用了100%,
但用du -x -h -a /  察看才用了100多M
其余的空间哪去了?
作者: 231053469    时间: 2006-02-09 18:39
看看 tmp
或者VAR
或者再看看 opt
可能编译环境或者安装`解压缩会出现这种现象
作者: 231053469    时间: 2006-02-09 18:39
这些目录在跟下
作者: thrack    时间: 2006-02-09 23:31
但我的 /var /opt /home /usr 都是分到别的分区上的,不占用 / 分区空间的,根分区下的所有目录我都进去看过,就是找不到占用根分区的大文件
作者: sakulagi    时间: 2006-02-10 07:25
cd /
du -sh *

看看哪个目录最大
作者: oraclinux    时间: 2006-02-10 09:45
可能楼主 du -sh * 去看下也同样是很小的  但  df 就是很大
估计和ext3的卷管理方式有关系   有个大文件生成后  删除了   然后没收会
或者一个程序在写某文件时候   这个文件被删除  但程序还在继续往不存在的文件里面写

不过是否有个比较权威的解释  就是“du -sh 查看实际占用很小,但df看到的很大”
作者: 231053469    时间: 2006-02-10 09:48
原帖由 oraclinux 于 2006-2-10 09:45 发表
可能楼主 du -sh * 去看下也同样是很小的  但  df 就是很大
估计和ext3的卷管理方式有关系   有个大文件生成后  删除了   然后没收会
或者一个程序在写某文件时候   这个文件被删除  但程序还在继续往不存在的文 ...
有人遇到这种情况
显示跟实际不同
具体哪的问题也不清除 可能是ext3吧?
应该没有占用,显示问题
作者: 大蚂蚁    时间: 2006-02-10 09:53
清空两个最大的日志先 然后tmp挂载个大空间
作者: thrack    时间: 2006-02-10 09:54
到/目录下 du -sh * 后 也找不到 / 分区大于 1G的目录 

空间的确被占用, 现在用vi 想在 / 分区某个目录生成一个文件都不行,提示如下

"a.sh" E514: write error (file system full?)
警告: 原始文件丢失或损坏
在文件正确写入前请勿退出编辑器!
作者: thrack    时间: 2006-02-10 09:56
原帖由 大蚂蚁 于 2006-2-10 09:53 发表
清空两个最大的日志先 然后tmp挂载个大空间



日志文件没有放在 / 分区 , /var 是单独的分区来这
我先找下 / 分区下最大的文件,看下先移走再恢复效果如何
作者: thrack    时间: 2006-02-10 10:08
find 了下
只有两个文件大于30M
-rw-r--r--    1 root     root          31M 2005-05-24  /usr/lib/locale/locale-archive
-rw-r--r--    1 root     root          49M 2004-09-03  /usr/lib/rpmdb/i386-redhat-linux/redhat/Packages
作者: bingosek    时间: 2006-02-10 10:10
原帖由 oraclinux 于 2006-2-10 09:45 发表
可能楼主 du -sh * 去看下也同样是很小的  但  df 就是很大
估计和ext3的卷管理方式有关系   有个大文件生成后  删除了   然后没收会
或者一个程序在写某文件时候   这个文件被删除  但程序还在继续往不存在的文 ...

如果是这样,那就把机器重启一下,释放一下inode
作者: oraclinux    时间: 2006-02-10 10:14
原帖由 bingosek 于 2006-2-10 10:10 发表

如果是这样,那就把机器重启一下,释放一下inode



一般服务器是不允许经常重新启动的   不知道是否有什么好的办法
特别是对这种大文件的操作  超过2g的

楼主发生的问题最可怕的就是磁盘有问题  有坏道什么的
不过一般重新启动下就好了
作者: thrack    时间: 2006-02-10 10:16
原帖由 oraclinux 于 2006-2-10 10:14 发表



一般服务器是不允许经常重新启动的   不知道是否有什么好的办法
特别是对这种大文件的操作  超过2g的

楼主发生的问题最可怕的就是磁盘有问题  有坏道什么的
不过一般重新启动下就好了



是啊,那台机目前不能中断服务,重起比较麻烦
看有没有办法不重起就可以释放那些空间的?
检查过,应该不是坏道的问题
作者: bingosek    时间: 2006-02-10 10:22
如果是因为把文件删除,但有程序占用着inode导致空间不能释放,据我所知,只能把程序kill掉,或者发一个信号让程序重新初始化一下或者重新读配置/重新写日志。
如果是那个程序占用inode都不知道,那只能够重启了
作者: thrack    时间: 2006-02-10 11:14
原帖由 bingosek 于 2006-2-10 10:22 发表
如果是因为把文件删除,但有程序占用着inode导致空间不能释放,据我所知,只能把程序kill掉,或者发一个信号让程序重新初始化一下或者重新读配置/重新写日志。
如果是那个程序占用inode都不知道,那只能够重启了


呵呵,我找下,多谢:)
作者: wenuy    时间: 2006-02-10 11:25
先找出是什么文件占的空间吧
作者: richard_j    时间: 2006-02-10 15:28
标题: 没遇到过,刚学linux
好凄凉呀,连话都插不上




欢迎光临 Chinaunix (http://bbs.chinaunix.net/) Powered by Discuz! X3.2