免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 2354 | 回复: 9
打印 上一主题 下一主题

[文本处理] 大文件大文件…… [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2013-09-18 12:58 |只看该作者 |倒序浏览
别人问我:
我有一个20G的文件
我想取前20000000000行
用head -n xxx>new
速度太慢了

shell不擅长处理这么大的文件吧? 求助大家! !

论坛徽章:
50
15-16赛季CBA联赛之广夏
日期:2018-11-05 09:42:462015年亚冠纪念徽章
日期:2015-07-23 11:58:122015亚冠之广州富力
日期:2015-07-07 08:26:172015亚冠之塔什干棉农
日期:2015-06-29 09:08:072015年亚洲杯之伊朗
日期:2015-03-08 20:51:012015年迎新春徽章
日期:2015-03-04 09:58:11未羊
日期:2014-10-16 22:41:47处女座
日期:2014-10-16 15:33:33酉鸡
日期:2014-03-13 12:54:10巳蛇
日期:2014-03-10 14:39:052015亚冠之德黑兰石油
日期:2015-07-29 12:46:372015亚冠之德黑兰石油
日期:2015-08-07 12:54:11
2 [报告]
发表于 2013-09-18 13:08 |只看该作者
试试sed
文件太大,估计也慢。但可能比head -n xxx>new要快。。。。。
  1. sed -ni '1,20000000000{p;20000000000q}' file
复制代码

论坛徽章:
1
天秤座
日期:2013-09-04 10:35:07
3 [报告]
发表于 2013-09-18 14:32 |只看该作者
是不是先把大文件切成小文件,再分别读取,记录下各个文件数。

论坛徽章:
145
技术图书徽章
日期:2013-10-01 15:32:13戌狗
日期:2013-10-25 13:31:35金牛座
日期:2013-11-04 16:22:07子鼠
日期:2013-11-18 18:48:57白羊座
日期:2013-11-29 10:09:11狮子座
日期:2013-12-12 09:57:42白羊座
日期:2013-12-24 16:24:46辰龙
日期:2014-01-08 15:26:12技术图书徽章
日期:2014-01-17 13:24:40巳蛇
日期:2014-02-18 14:32:59未羊
日期:2014-02-20 14:12:13白羊座
日期:2014-02-26 12:06:59
4 [报告]
发表于 2013-09-18 14:39 |只看该作者
回复 1# smallpboy


>> 我有一个20G的文件
>>我想取前20000000000行

one line for one character only
20,000,000,000行 x (1 byte + Enter"\n") = more than 20G


Would you let's know what do you want?

论坛徽章:
0
5 [报告]
发表于 2013-09-18 17:28 |只看该作者
sed -n '/1,20000000000 w output.txt/' input.txt

论坛徽章:
5
未羊
日期:2014-08-04 16:15:21天秤座
日期:2014-08-13 13:52:372015年辞旧岁徽章
日期:2015-03-03 16:54:152015年迎新春徽章
日期:2015-03-04 09:56:112015亚冠之浦和红钻
日期:2015-06-29 15:30:48
6 [报告]
发表于 2013-09-18 17:44 |只看该作者
  1. awk 'NR<20000000001{print > "new"}' xxx
复制代码

论坛徽章:
7
卯兔
日期:2013-10-24 22:27:29天秤座
日期:2013-11-06 17:30:47午马
日期:2015-01-16 10:16:252015年亚洲杯之乌兹别克斯坦
日期:2015-04-02 14:49:302015年亚洲杯之韩国
日期:2015-04-22 14:28:03青铜圣斗士
日期:2015-11-21 00:06:2915-16赛季CBA联赛之天津
日期:2016-02-29 16:26:43
7 [报告]
发表于 2013-09-18 22:32 |只看该作者
虽然没遇到过这样的场景,来膜拜一下高手怎么解决这个问题。

论坛徽章:
0
8 [报告]
发表于 2013-09-19 05:51 |只看该作者
load the file into hadoop cluster hdfs, and run hadoop jobs

or load the file into cassandra cluster

论坛徽章:
2
2015年亚冠纪念徽章
日期:2015-07-05 23:06:04IT运维版块每日发帖之星
日期:2015-07-06 22:20:00
9 [报告]
发表于 2013-09-23 11:02 |只看该作者
用split -l 20000000000如何?然后只要第一个文件就行了

论坛徽章:
36
摩羯座
日期:2013-09-23 16:37:312015年亚洲杯之沙特阿拉伯
日期:2015-04-14 09:10:172015亚冠之柏太阳神
日期:2015-06-25 08:48:212015亚冠之武里南联
日期:2015-07-28 09:01:082015亚冠之莱赫维亚
日期:2015-07-28 15:44:172015亚冠之柏斯波利斯
日期:2015-09-06 14:08:52白银圣斗士
日期:2015-11-25 17:06:2815-16赛季CBA联赛之吉林
日期:2015-12-09 16:59:072016猴年福章徽章
日期:2016-02-18 15:30:3415-16赛季CBA联赛之辽宁
日期:2016-04-14 09:29:04luobin
日期:2016-06-17 17:46:3615-16赛季CBA联赛之天津
日期:2016-08-16 14:11:01
10 [报告]
发表于 2013-09-23 14:37 |只看该作者
sed -i '2000000000q' file
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP