免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 1915 | 回复: 2
打印 上一主题 下一主题

如何处理文件中重复数据 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-09-05 14:45 |只看该作者 |倒序浏览
我想编辑一些文件,但是编辑后文件里会有一些重复的数据,需要做个校验删除重复的行,想请教各位高手有没有好办法介绍如何快速删除这些数据。

例如:

file1.txt:

1  2  2 3  abc
2  2  3  4 bbk
3  3  4  4 ddd
.
.
.
a   b  c  4  ujh

如果对这个文件做个添加操作,加一行“1  2  2 3  abc” , 那么就和第一行的重复了,想删除第一行,有什么方法可以快速做到吗?



谢谢了!

论坛徽章:
0
2 [报告]
发表于 2008-09-05 15:13 |只看该作者
如果不考虑排序的话。就直接写完,然后用shell的sort + uniq

论坛徽章:
0
3 [报告]
发表于 2008-09-05 15:15 |只看该作者

回复 #1 andylei 的帖子

It's very simple.
If the file is not large, read each line from the file and put the line into
a hash. The hash's key will store uniq line.
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP