- 论坛徽章:
- 0
|
原帖由 biaog 于 2005-12-19 10:15 发表
恩!两个问题啊
1。如果access.log很大,那么压缩会持续很长时间,在压缩的过程中如果有日志进入access.log,那这些日志会被压缩嘛?
2。就是楼主说的,压缩完后的一瞬间如果突然有很多日志进入access.log,那 ...
赞同这位朋友说的,第二种方法的确在处理大日志的时候有些问题,本来也是在无法使用cronolog的情况使用。
不过第一种情况,我个人认为在压缩的过程中,新生成的日志仍然会进入到压缩文件中,直到最后一刻压缩完成,因为在压缩的时候,gzip可能会一直读取到文件末尾才停止,读完之后再更改压缩文件头,因为我认为在技术上是可以实现的。当然这点本人暂时还无法证实,如果哪位朋友有条件可以测试一下。
如果真的在压缩开始后剩下的日志不会进入压缩文件,仍然可以有一种变通的方法,通过先拷贝一个日志的副本,然后清空原日志,这时候再去压缩这个副本,应该可以把“损失”降到最低。
而第二种情况确实存在,不过那一瞬间(应该是毫秒级别)能进入到日志中的信息是不会很多的,即使访问量非常大的网站,也应该可以不去考虑这一点丢失的信息。
不过其实cronolog也可能存在同样的问题,因为cronolog的机制也是apache通过重定向信息到日志文件中,所以也面临这个问题。 |
|