ruby如何去处理 20G的大文件?
现在要分析一个日志文件,大小约20G.机器内存只有8G,无法全部读到内存中。现在一行一行读取,但是速度很慢。
试过多线程等方式,反而更慢。
求解。。。 时间是必须的,你不能指望20g很快就完成,你得想想为啥要等到20g?欠考虑就是要付出代价的。
想办法把文件分割成若干个小文件吧,然后处理。 是什么分析需求,需要把全部日志放到内存里?
简单的需求一般可以line by line。 日志按照天分割,一天差不多20G. 分割小一点吧。 按照小时分割日志吧,或者按照分钟。。。 欢迎新人加入。 谢分享 用hadoop
页:
[1]
2