免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12
最近访问板块 发新帖
楼主: chenbin200818
打印 上一主题 下一主题

shell(sed、awk)处理大数据的文件 [复制链接]

论坛徽章:
2
射手座
日期:2014-10-10 15:59:4715-16赛季CBA联赛之上海
日期:2016-03-03 10:27:14
11 [报告]
发表于 2011-02-22 15:50 |只看该作者
你的问题是数据太大,
下面的代码应该能满足你要求,不过这么大的数据awk处理起来,不知情况会如何,

awk '{a[$0]++}END{for (i in a) print a[i],i|"sort -nr|head"}'

论坛徽章:
3
天秤座
日期:2013-12-27 13:44:58射手座
日期:2014-05-22 16:52:43天蝎座
日期:2014-08-13 16:03:21
12 [报告]
发表于 2011-02-22 15:59 |只看该作者
你的问题是数据太大,
下面的代码应该能满足你要求,不过这么大的数据awk处理起来,不知情况会如何,

a ...
yinyuemi 发表于 2011-02-22 15:50



    很慢的。
   记得以前用了一上午的时间拷贝无序的500G测试数据文件,脚本跑了老长。

论坛徽章:
0
13 [报告]
发表于 2011-02-22 17:07 |只看该作者
只用shell 不管怎么写都不会快啊, 可以用hadoop 来做 但那不是shell......

论坛徽章:
0
14 [报告]
发表于 2011-02-22 17:26 |只看该作者
11楼 如果是小数据 可以;
可如果向你这样, 你考虑过 数祖边界吗

论坛徽章:
0
15 [报告]
发表于 2011-02-22 17:28 |只看该作者
  1. sort file | uniq -c | sort -k1rn | head -10 | awk '{print $2;}'
复制代码
试试看
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP