免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 2357 | 回复: 7
打印 上一主题 下一主题

请教各位高手 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-09-24 20:50 |只看该作者 |倒序浏览
10可用积分
最近领导让我分析squid里面的数据,要达到的要求是 某些IP地址(192。168.11.65-192.168.11.111)最近一个月都上了哪些网站。 squid数据在/var/log/squid/access.log.*.gz  比如分析1号的,就分析access.log.01.gz,这个压缩文件大小有70多MB。 我写了一个小脚本,里面用了zgrep -f IP列表文件 /var/log/squid/access.log.01.gz > ~chu/tmp.log      命令,发现执行的速度非常慢,需要20多分钟,而且抓出来tmp.log大小达到了70多MB,我想知道,我怎么才能尽快的分析这个文件?   因为我发现在access.log.01.gz中有很多记录是这样的,记录了IP和上的网站,那些网站有很多重复的,我想输出的时候能否不要这些重复的网站,这些重复的网站只要出现一次就够了。  不知道能否实现?

公司还安装了sarg来分析squid.  我想知道如果我上面的要求满足不了,那么用sarg能否满足我的要求分析出我要的数据吗? 谢谢!

论坛徽章:
0
2 [报告]
发表于 2008-09-24 21:34 |只看该作者
贴出你的文件/var/log/squid/access.log.01先

给出你想要的结果样式先

论坛徽章:
0
3 [报告]
发表于 2008-09-24 21:42 |只看该作者
原帖由 welcome008 于 2008-9-24 21:34 发表
贴出你的文件/var/log/squid/access.log.01先

给出你想要的结果样式先


呵呵,就是这样。

论坛徽章:
0
4 [报告]
发表于 2008-09-24 21:57 |只看该作者
cat access.log | grep 产找IP范围 | awk '{print $7}' | cut -c8- | sort -r | uniq -c | sort -n
第一张图是原始数据,第二张图是经过以上语句排序后数据,访问率最高的在最下边.希望能帮上忙

[ 本帖最后由 7717060 于 2008-9-24 22:00 编辑 ]

未命名.jpg (46.82 KB, 下载次数: 63)

未命名.jpg

未命名.jpg (46.82 KB, 下载次数: 61)

未命名.jpg

论坛徽章:
0
5 [报告]
发表于 2008-09-24 22:45 |只看该作者
你这领导太阴暗了。呵呵、。。。

论坛徽章:
0
6 [报告]
发表于 2008-09-26 09:13 |只看该作者

  1. zcat 压缩的日志文件 | awk '/IP/{a[$网址所在的字段序号]=1}END{for(url in a)print url}
复制代码


只是不知道效能怎么样

论坛徽章:
0
7 [报告]
发表于 2008-09-28 09:15 |只看该作者
分析70M的数据用sed与awk吧

论坛徽章:
0
8 [报告]
发表于 2008-10-10 10:02 |只看该作者
谢谢各位兄弟的回答,最后还是没有搞好,只能人工来弄了。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP