免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 3332 | 回复: 13
打印 上一主题 下一主题

[文本处理] 比较两个文本的重复问题--想了很多办法,真没招了 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2014-03-17 13:32 |只看该作者 |倒序浏览
本帖最后由 cjxulicong 于 2014-03-17 13:34 编辑

例子是这样的,我有两个文件  一个文件有13万行 一个文件有14万行 两个文件相差1万多行
我现在需要做的事情就是比较两个文件。找出这一万行的数据出来
两个文本每行的内容不一定是一样的
比如一个文件会出现多行重复的1
a.txt
1
2
3
4
1
1
b.txt
2
3
4
1
2
3
所以基本思路是  a.文件行数比b文件少  用a里面的内容是比较b文件的内容
a b 两个文件都有的内容就去掉,这里有个问题 比如a文件出现3个 1  b文件只有2个1.那么只去掉2个1 a文件多出来的1 需要显示出来
然后最后要统计出 a 里面有哪些内容是b文件里面没有的  b文件里面 有哪些内容是 a 里面没有的

所以要导出两个文件
c文件里面显示 a里面独有的行
d文件里面显示 b里面独有的行
不知道我这么描述能不能描述清楚

论坛徽章:
7
荣誉版主
日期:2011-11-23 16:44:17子鼠
日期:2014-07-24 15:38:07狮子座
日期:2014-07-24 11:00:54巨蟹座
日期:2014-07-21 19:03:10双子座
日期:2014-05-22 12:00:09卯兔
日期:2014-05-08 19:43:17卯兔
日期:2014-08-22 13:39:09
2 [报告]
发表于 2014-03-17 13:39 |只看该作者
去重sort后,再用diff,不知道行不行?

论坛徽章:
33
荣誉会员
日期:2011-11-23 16:44:17天秤座
日期:2014-08-26 16:18:20天秤座
日期:2014-08-29 10:12:18丑牛
日期:2014-08-29 16:06:45丑牛
日期:2014-09-03 10:28:58射手座
日期:2014-09-03 16:01:17寅虎
日期:2014-09-11 14:24:21天蝎座
日期:2014-09-17 08:33:55IT运维版块每日发帖之星
日期:2016-04-17 06:23:27操作系统版块每日发帖之星
日期:2016-04-18 06:20:00IT运维版块每日发帖之星
日期:2016-04-24 06:20:0015-16赛季CBA联赛之天津
日期:2016-05-06 12:46:59
3 [报告]
发表于 2014-03-17 13:44 |只看该作者
diff -U1 filea fileb

论坛徽章:
8
技术图书徽章
日期:2013-08-22 11:21:28未羊
日期:2015-01-19 22:22:25巳蛇
日期:2014-08-11 16:53:08子鼠
日期:2014-05-29 09:04:44摩羯座
日期:2014-04-11 14:15:07丑牛
日期:2014-01-24 12:41:28金牛座
日期:2013-11-21 17:38:28射手座
日期:2015-01-21 08:50:32
4 [报告]
发表于 2014-03-17 13:46 |只看该作者
回复 2# r2007


    我觉得应该不行。。。因为所在行数不一样。。。
用grep吧

论坛徽章:
0
5 [报告]
发表于 2014-03-17 13:51 |只看该作者
本帖最后由 cjxulicong 于 2014-03-17 13:53 编辑

回复 2# r2007


[root@baidu shell]# cat a|uniq -c
      3 1
      1 2
      1 3
      1 4
[root@baidu shell]# cat b|uniq -c
      1 1
      2 2
      2 3
      1 4
比如我现在已经排序了并且去重了,但是我要知道比如 a文件里面有3个1  b 文件里面有1 个1  那么所以a文件就多了两个1 这个要输出为结果。
就以上面两个例子来说
我要得到的结果为
c 文件内容为
1
1
d文件内容为
2
3


不知道这么说会不会清楚一点  可以表达的方式不一样。但是主要是我要知道两个文件到底是那些数据不一致。也包括重复的次数



论坛徽章:
0
6 [报告]
发表于 2014-03-17 13:56 |只看该作者
回复 3# q1208c


    谢谢q1208c 大大,我输出的是这个 我看看能不能过滤出我想要的内容
[root@baidu shell]# diff -U 1 a b
--- aa 2014-03-17 13:48:03.000000000 +0800
+++ bb 2014-03-17 13:49:14.000000000 +0800
@@ -1,5 +1,5 @@
1
-1
-1
2
+2
+3
3

论坛徽章:
8
技术图书徽章
日期:2013-08-22 11:21:28未羊
日期:2015-01-19 22:22:25巳蛇
日期:2014-08-11 16:53:08子鼠
日期:2014-05-29 09:04:44摩羯座
日期:2014-04-11 14:15:07丑牛
日期:2014-01-24 12:41:28金牛座
日期:2013-11-21 17:38:28射手座
日期:2015-01-21 08:50:32
7 [报告]
发表于 2014-03-17 13:56 |只看该作者
==>$ grep -F -v -f a.txt b.txt | sort | uniq  
==>$ grep -F -v -f b.txt a.txt | sort | uniq  

论坛徽章:
1
2015年辞旧岁徽章
日期:2015-03-03 16:54:15
8 [报告]
发表于 2014-03-17 14:05 |只看该作者
提示: 作者被禁止或删除 内容自动屏蔽

论坛徽章:
32
处女座
日期:2013-11-20 23:41:20双子座
日期:2014-06-11 17:20:43戌狗
日期:2014-06-16 11:05:00处女座
日期:2014-07-22 17:30:47狮子座
日期:2014-07-28 15:38:17金牛座
日期:2014-08-05 16:34:01亥猪
日期:2014-08-18 13:34:25白羊座
日期:2014-09-02 15:03:55金牛座
日期:2014-11-10 10:23:58处女座
日期:2014-12-02 09:17:52程序设计版块每日发帖之星
日期:2015-06-16 22:20:002015亚冠之塔什干火车头
日期:2015-06-20 23:28:22
9 [报告]
发表于 2014-03-17 14:12 |只看该作者
  1. $ awk 'NR==FNR{a[$0]++;next}a[$0]--<=0' b a > c
  2. $ awk 'NR==FNR{a[$0]++;next}a[$0]--<=0' a b > d
  3. $ cat c
  4. 1
  5. 1
  6. $ cat d
  7. 2
  8. 3
复制代码

论坛徽章:
0
10 [报告]
发表于 2014-03-17 14:34 |只看该作者
回复 9# yestreenstars


    哇撒。我研究下。 yestreenstars  能说下这个语句的思路么。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP