免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 3094 | 回复: 8
打印 上一主题 下一主题

[Web] 动态虚拟主机根据域名分隔日志脚本 [复制链接]

论坛徽章:
1
IT运维版块每日发帖之星
日期:2015-08-04 06:20:00
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2009-07-17 17:47 |只看该作者 |倒序浏览
为大容量动态虚拟主机解决日志按域名分隔问题自己写了这个脚本

#!/bin/sh
#动态虚拟主机按域名分割日志 20090717

logPath="/var/log/httpd"
logPostfixName="_access_log"

if [ "$1" != "" ]
then
    logPath=$1
fi
if [ "$2" != "" ]
then
    logPostfixName=$2
fi

while read line
do
    domain=$(echo $line|cut -d' ' -f1)
    logFile="${logPath}/${domain}${logPostfixName}"
    code=$(echo $line|cut -d' ' -f10)

    #如果不是404错误 或者 目标日志已经存在
   if [ "$code" != "404" -o -s "$logFile" ]
     then
         echo $line|cut -d' ' -f2- >>$logFile
     fi
done


脚本保存到 /etc/httpd/vlog.sh
修改apache配置
UseCanonicalName Off
<VirtualHost *>
    VirtualDocumentRoot /home//%0/public_html
    LogFormat "%V %h %l %u %t \"%r\" %s %b" vcommon
   CustomLog "|/etc/httpd/vlog.sh /var/log/httpd _access_log" vcommon
</VirtualHost>

在CentoOS 5 apache2.2 上测试通过,
用Bash些的脚本担心效率问题,各位如有更好的解决方法请留言,谢谢

[ 本帖最后由 信天翁 于 2009-7-18 22:43 编辑 ]

论坛徽章:
1
IT运维版块每日发帖之星
日期:2015-08-04 06:20:00
2 [报告]
发表于 2009-07-26 00:16 |只看该作者
研究了一下bash shell,对脚本做了一下优化,使用bash内置字符串函数替换外置命令,性能提高三倍

  1. #!/bin/sh

  2. #动态虚拟主机按域名分割日志
  3. #20090726 by xiao

  4. logPath=${1:-/var/log/httpd}
  5. logPostfixName=${2:-_access_log}

  6. while read line
  7. do
  8.     domain=${line%% *} #完整域名,部分域名用domain=${line%%.*}  
  9.     logFile="${logPath}/${domain}${logPostfixName}"
  10.     code=${line% *}
  11.     code=${code##* }
  12.     lline=${line#* }

  13.     #如果不是404错误 或者 目标日志已经存在
  14.     if [ "$code" != "404" ] || [ -s "$logFile" ]
  15.     then
  16.         echo $lline >> $logFile
  17.     fi
  18. done

复制代码

论坛徽章:
0
3 [报告]
发表于 2009-07-27 12:11 |只看该作者
实时处理的性能是很低的,对于高负载的服务器性能影响比较大,我们一般是先记录在一起,每天自动切割后,对已经切割保留好的日志再做分拣。

只用一条命令:

awk '{print $0>$1}' access_log

论坛徽章:
1
技术图书徽章
日期:2013-12-05 23:25:45
4 [报告]
发表于 2009-07-27 14:15 |只看该作者
不错。

不过apache自己有split-logfile,或者可以用cronolog

论坛徽章:
0
5 [报告]
发表于 2009-07-27 16:04 |只看该作者
是啊~ 为何不单独为每个虚拟主机配置自己的日志呢?

论坛徽章:
1
IT运维版块每日发帖之星
日期:2015-08-04 06:20:00
6 [报告]
发表于 2009-07-27 18:29 |只看该作者
原帖由 HonestQiao 于 2009-7-27 14:15 发表
不错。

不过apache自己有split-logfile,或者可以用cronolog


我用的CentOS 5.3 系统里没有split-logfile,
另外cronolog只能按当前日期处理日志,它不分析日志内容

刚下了apache 2.2 的源码包,make了一下找到了split-logfile,原来是个perl脚本,去掉注释后代码如下

  1. #!/usr/bin/perl
  2. %is_open = ();

  3. while ($log_line = <STDIN>) {
  4.     ($vhost) = split (/\s/, $log_line);
  5.     $vhost = lc ($vhost) or "access";
  6.     if ($vhost =~ m#[/\\]#) { $vhost = "access" }
  7.     if (! $is_open{$vhost}) {
  8.         open $vhost, ">>${vhost}.log"
  9.             or die ("Can't open ${vhost}.log");
  10.         $is_open{$vhost} = 1;
  11.     }
  12.     $log_line =~ s/^\S*\s+//;
  13.     printf $vhost "%s", $log_line;
  14. }
  15. exit 0;
复制代码

基本和我的脚本类似,不知道我上面的bash脚本和这个perl脚本那个更快一些,于是做了一下测试
测试脚本test.sh

  1. #!/bin/sh
  2. s='xxx.yyy.ccc 192.168.200.21 - - [20/Jul/2009:13:55:50 +0800] "GET / HTTP/1.1" 200 51707'
  3. ii=0
  4. while [ "$ii" -lt 1000 ]
  5. do
  6.   echo $s|$1
  7.   ((ii++))
  8. done
复制代码

将三个脚本放到同一目录下

[root@test test]# time ./test.sh ./split-logfile

real    0m3.759s
user    0m1.489s
sys     0m2.293s

[root@test test]# time ./test.sh ./vlog.sh

real    0m2.515s
user    0m0.782s
sys     0m1.764s

竟然是bash脚本更快一些

论坛徽章:
1
IT运维版块每日发帖之星
日期:2015-08-04 06:20:00
7 [报告]
发表于 2009-07-27 18:31 |只看该作者
原帖由 gucuiwen 于 2009-7-27 12:11 发表
实时处理的性能是很低的,对于高负载的服务器性能影响比较大,我们一般是先记录在一起,每天自动切割后,对已经切割保留好的日志再做分拣。

只用一条命令:

awk '{print $0>$1}' access_log

这样日志会很大吧,高负载的服务器一天怕得产生十几个G的日志,担心集中处理的速度

论坛徽章:
1
IT运维版块每日发帖之星
日期:2015-08-04 06:20:00
8 [报告]
发表于 2009-07-27 18:33 |只看该作者
原帖由 一刀砍死 于 2009-7-27 16:04 发表
是啊~ 为何不单独为每个虚拟主机配置自己的日志呢?


有数百上千个虚拟主机,每个都写配置文件多累啊

论坛徽章:
0
9 [报告]
发表于 2012-02-20 14:23 |只看该作者
我使用了 LogFormat "%V %h %l %u %t \"%r\" %>s %b \"%{Referer}i\" \"%{User-Agent}i\"" vcombined 这样的格式,那脚本要怎么改一下呢?
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP