免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 1759 | 回复: 6
打印 上一主题 下一主题

[rhel5.5]统计访问网站的ip数(已解决) [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2010-07-01 10:51 |只看该作者 |倒序浏览
本帖最后由 richj0110 于 2010-07-02 10:05 编辑

os : rhel5.5
apache 2.2

我用awk 把 apache 日志 access_log 的 第二列(ip)取出,然后放到一个新的文件里,然后用uniq来过滤掉重复的ip记录

然后再存到一个新的文件中,但我打开文件后,发现并没过滤掉重复ip,但文件大小却变小了

命令如下:

awk '{print $2}'  access_log > access_logIP.log | uniq -u access_logIP.log | wc -l

为什么不能过滤掉重复ip记录呢?

谢谢!
一路征程一路笑 该用户已被删除
2 [报告]
发表于 2010-07-01 11:04 |只看该作者
提示: 作者被禁止或删除 内容自动屏蔽

论坛徽章:
0
3 [报告]
发表于 2010-07-01 11:20 |只看该作者
哦,我试试,谢谢!

论坛徽章:
0
4 [报告]
发表于 2010-07-01 11:52 |只看该作者
再问下,如果我要统计每个ip出现了多少次,是不是用命令就比较困难了?只有写个小程序来解决啊?{:3_183:}
一路征程一路笑 该用户已被删除
5 [报告]
发表于 2010-07-01 12:06 |只看该作者
提示: 作者被禁止或删除 内容自动屏蔽

论坛徽章:
0
6 [报告]
发表于 2010-07-01 12:16 |只看该作者
再问下,如果我要统计每个ip出现了多少次,是不是用命令就比较困难了?只有写个小程序来解决啊?
richj0110 发表于 2010-07-01 11:52


awk就可以搞定!

论坛徽章:
0
7 [报告]
发表于 2010-07-01 13:33 |只看该作者
谢谢各位,我正在学 unix shell,1个月后就可以用awk了,呵呵
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP