免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
楼主: 我叫萌萌
打印 上一主题 下一主题

[文本处理] 如何查询10G以上的日志文件 [复制链接]

论坛徽章:
2
程序设计版块每日发帖之星
日期:2016-03-21 06:20:00数据库技术版块每日发帖之星
日期:2016-04-10 06:20:00
11 [报告]
发表于 2016-04-25 15:35 |只看该作者
Shell_HAT 发表于 2016-04-25 15:28
这样也许可以稍微快点,你试试10G的文件需要多久。



用了   fgrep   grep -P  半天都出不来!

论坛徽章:
2
程序设计版块每日发帖之星
日期:2016-03-21 06:20:00数据库技术版块每日发帖之星
日期:2016-04-10 06:20:00
12 [报告]
发表于 2016-04-25 15:36 |只看该作者
本帖最后由 我叫萌萌 于 2016-04-25 15:37 编辑
Shell_HAT 发表于 2016-04-25 15:28
这样也许可以稍微快点,你试试10G的文件需要多久。


有更好的办法吗?  用脚本也行!

论坛徽章:
29
程序设计版块每日发帖之星
日期:2016-02-29 06:20:0015-16赛季CBA联赛之天津
日期:2016-08-10 10:33:1115-16赛季CBA联赛之深圳
日期:2016-08-17 15:07:2015-16赛季CBA联赛之佛山
日期:2016-11-07 11:33:5015-16赛季CBA联赛之广夏
日期:2016-11-15 09:13:31CU十四周年纪念徽章
日期:2016-11-24 14:12:25极客徽章
日期:2016-12-07 14:03:4015-16赛季CBA联赛之深圳
日期:2016-12-07 17:15:2715-16赛季CBA联赛之北京
日期:2016-12-22 09:30:0115-16赛季CBA联赛之深圳
日期:2016-12-22 10:49:2115-16赛季CBA联赛之山西
日期:2017-02-10 09:05:3215-16赛季CBA联赛之同曦
日期:2017-02-27 14:19:08
13 [报告]
发表于 2016-04-25 15:37 |只看该作者
先split分割? 日志文件应该到了一定大小就要自动分割下更好

论坛徽章:
2
程序设计版块每日发帖之星
日期:2016-03-21 06:20:00数据库技术版块每日发帖之星
日期:2016-04-10 06:20:00
14 [报告]
发表于 2016-04-25 15:37 |只看该作者
回复 13# elu_ligao


    以前不是我做啊   没有分割啊  现在要查数据呢

论坛徽章:
29
程序设计版块每日发帖之星
日期:2016-02-29 06:20:0015-16赛季CBA联赛之天津
日期:2016-08-10 10:33:1115-16赛季CBA联赛之深圳
日期:2016-08-17 15:07:2015-16赛季CBA联赛之佛山
日期:2016-11-07 11:33:5015-16赛季CBA联赛之广夏
日期:2016-11-15 09:13:31CU十四周年纪念徽章
日期:2016-11-24 14:12:25极客徽章
日期:2016-12-07 14:03:4015-16赛季CBA联赛之深圳
日期:2016-12-07 17:15:2715-16赛季CBA联赛之北京
日期:2016-12-22 09:30:0115-16赛季CBA联赛之深圳
日期:2016-12-22 10:49:2115-16赛季CBA联赛之山西
日期:2017-02-10 09:05:3215-16赛季CBA联赛之同曦
日期:2017-02-27 14:19:08
15 [报告]
发表于 2016-04-25 15:38 |只看该作者
额, 我的意思是你先把这个大文件分割成一些小一点的文件, 再grep

论坛徽章:
2
程序设计版块每日发帖之星
日期:2016-03-21 06:20:00数据库技术版块每日发帖之星
日期:2016-04-10 06:20:00
16 [报告]
发表于 2016-04-25 15:43 |只看该作者
elu_ligao 发表于 2016-04-25 15:38
额, 我的意思是你先把这个大文件分割成一些小一点的文件, 再grep



怎么做?   没做过

论坛徽章:
145
技术图书徽章
日期:2013-10-01 15:32:13戌狗
日期:2013-10-25 13:31:35金牛座
日期:2013-11-04 16:22:07子鼠
日期:2013-11-18 18:48:57白羊座
日期:2013-11-29 10:09:11狮子座
日期:2013-12-12 09:57:42白羊座
日期:2013-12-24 16:24:46辰龙
日期:2014-01-08 15:26:12技术图书徽章
日期:2014-01-17 13:24:40巳蛇
日期:2014-02-18 14:32:59未羊
日期:2014-02-20 14:12:13白羊座
日期:2014-02-26 12:06:59
17 [报告]
发表于 2016-04-25 15:45 |只看该作者
回复 12# 我叫萌萌


>>    有更好的办法吗?

数据库---(可能)不是你想要的...

论坛徽章:
2
程序设计版块每日发帖之星
日期:2016-03-21 06:20:00数据库技术版块每日发帖之星
日期:2016-04-10 06:20:00
18 [报告]
发表于 2016-04-25 15:50 |只看该作者
jason680 发表于 2016-04-25 15:45
回复 12# 我叫萌萌



用数据库太麻烦了!

论坛徽章:
29
程序设计版块每日发帖之星
日期:2016-02-29 06:20:0015-16赛季CBA联赛之天津
日期:2016-08-10 10:33:1115-16赛季CBA联赛之深圳
日期:2016-08-17 15:07:2015-16赛季CBA联赛之佛山
日期:2016-11-07 11:33:5015-16赛季CBA联赛之广夏
日期:2016-11-15 09:13:31CU十四周年纪念徽章
日期:2016-11-24 14:12:25极客徽章
日期:2016-12-07 14:03:4015-16赛季CBA联赛之深圳
日期:2016-12-07 17:15:2715-16赛季CBA联赛之北京
日期:2016-12-22 09:30:0115-16赛季CBA联赛之深圳
日期:2016-12-22 10:49:2115-16赛季CBA联赛之山西
日期:2017-02-10 09:05:3215-16赛季CBA联赛之同曦
日期:2017-02-27 14:19:08
19 [报告]
发表于 2016-04-25 15:59 |只看该作者
你man 一下split , 可以试一下
split -b 500m log log_
for file in `ls log_*`; do grep "data" $file >> file.out; done
不知道这样要多长时间, 没处理过大文件

论坛徽章:
2
程序设计版块每日发帖之星
日期:2016-03-21 06:20:00数据库技术版块每日发帖之星
日期:2016-04-10 06:20:00
20 [报告]
发表于 2016-04-25 16:03 |只看该作者
elu_ligao 发表于 2016-04-25 15:59
你man 一下split , 可以试一下
split -b 500m log log_
for file in `ls log_*`; do grep "data" $file  ...



谢谢大神....  我要查的记录有100多条不同的记录,哎!
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP