免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 4926 | 回复: 17
打印 上一主题 下一主题

提取大文件的某一列 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2009-08-06 10:09 |只看该作者 |倒序浏览
我通过文件合并得到了一个很大的文件,大概有7~8G,数据量很大,而我只想提取出某一列来进行处理。
我原先的想法是通过 awk 提取出这个文件的某一列,然后再处理,但是由于文件太大,使用 awk 提取列的时候花费的时间太长了,过了20多分钟都没有结束。
我想问一下,在shell中,除了 awk 可以提取某一列外,是不是没有别的工具或命令了啊?
谢谢!

论坛徽章:
0
2 [报告]
发表于 2009-08-06 10:10 |只看该作者
cut 命令可以

论坛徽章:
0
3 [报告]
发表于 2009-08-06 10:12 |只看该作者
刚查了下

cut -d'分割符' -f 第几列

论坛徽章:
0
4 [报告]
发表于 2009-08-06 10:13 |只看该作者
我奇怪的是什么样的文本能有7,8G那么大。

论坛徽章:
0
5 [报告]
发表于 2009-08-06 10:13 |只看该作者
不过你试下这个cut效率如何?

论坛徽章:
0
6 [报告]
发表于 2009-08-06 10:14 |只看该作者
7,8G应该也是正常范围吧

论坛徽章:
0
7 [报告]
发表于 2009-08-06 10:18 |只看该作者
原帖由 yy_galois 于 2009-8-6 10:13 发表
我奇怪的是什么样的文本能有7,8G那么大。



手机号码。

论坛徽章:
5
2015年辞旧岁徽章
日期:2015-03-03 16:54:152015年迎新春徽章
日期:2015-03-04 09:50:282015年亚洲杯之朝鲜
日期:2015-03-13 22:47:33IT运维版块每日发帖之星
日期:2016-01-09 06:20:00IT运维版块每周发帖之星
日期:2016-03-07 16:27:44
8 [报告]
发表于 2009-08-06 10:23 |只看该作者

回复 #1 yiyeguhong 的帖子

awk的效率也没有这么差吧。是不是命令有问题?

论坛徽章:
0
9 [报告]
发表于 2009-08-06 10:27 |只看该作者

回复 #7 小木虫子 的帖子

一个人的全部信息,包括出生年月,籍贯,手机号码,学习工作经历等,最多大概也就是1k。
7,8G就等于大约 0.1亿人口的全部信息。这么多人口的信息怎么掌握在你手中,就算是一条信息买1毛钱,那也有100万,你岂不发了,还做程序员干嘛?

论坛徽章:
0
10 [报告]
发表于 2009-08-06 10:49 |只看该作者
导入数据库、建索引查询
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP