免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 7325 | 回复: 6
打印 上一主题 下一主题

[proxy] 分享原创:用heartbeat实现浮动地址的双机互备的反向web缓存 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-04-15 11:31 |只看该作者 |倒序浏览
用heartbeat实现浮动地址的双机互备
领导提出来要对一地方门户网站做热备,虽然未必真的会实施,但还是有点意思的。
其实做热备或者说好听些叫高可用,也就是堆机器,加一台数据库,做主从方式,网站程序里稍微做些手脚,数据库的热备基本也没什么问题了,当然要是做网站的能考虑CMS类的,就更好了,不过这些都有专人负责,我就不去管了。怎么做WEB服务器的热备,并且提高访问速度才是我的临时工作。

把现在的百兆交换机换成千兆的,这样的话,单纯做WEB服务,一台服务器应该能够轻松达到200M的流量,而现在的情况是4台WEB加起来也不过只有70M左右的流量,所以用一台服务器对4台WEB进行缓存加速从带宽上看是可行的。后面的4台机器每两台一组做主备,比如域名1主用在WEB1上,备用在WEB2上,域名2主用在WEB2上备用在WEB1上,以此类推,CACHE上做后面的健康监测并进行请求分发。
Cache服务器内存应该尽可能大,提高性能。
出于Cache服务器的可用性考虑,准备上两台服务器,之间用heartbeat做主备,一个浮动地址,平时在主用服务器上,主用挂了以后浮动到备用上。如果觉得备用机平时闲着太可惜,也可以在主用上进行一下负载分担,把缓存功能分担到主备两台机器上,这样带来的另一个好处就是主备切换的时候,缓存不需要从零开始建立。
大致的结构如下:

找了两台低端服务器做实验,centos4.6,双网卡,一个接外网,一个用来心跳监测。
两台机器,机器名分别为cache1和cache2,也就是uname -n看到的,在hosts里加上另外一台机器,以便通过ping cache1和ping cache2能通
安装heartbeat
为了省事,直接用yum安装,很方便

yum install heartbeat
装完heartbeat-2.1.3以后,在/etc/ha.d目录下编辑一个ha.cf,内容是
use_logd yes
auto_failback on
bcast   eth1
node cache1 cache2
crm on

心跳监测通过eth1进行。
编辑一个logd.cf,内容是
logfacility     daemon
编辑一个authkeys,内容是
auth 1
1 sha1 mykeystring

把authkeys属性改成600。
配置文件的其他项目这里都用默认值了。
也可以从/usr/share/doc/heartbeat-2.1.3下复制这两个配置文件的样板来根据需要修改。
为了实现地址浮动,需要在/var/lib/heartbeat/crm目录下做一个cib.xml,用来描述资源管理。
我是在原来缺省的文件上修改的
增加部分为:
    <resources>
      <primitive id="ip_resource" class="ocf" type="IPaddr" provider="heartbeat">
        <instance_attributes>
          <attributes>
            <nvpair name="ip" value="192.168.111.10"/>
             <nvpair name="nic" value="eth0"/>
             <nvpair name="cidr_netmask" value="26"/>
          </attributes>
        </instance_attributes>
      </primitive>
    </resources>
    <constraints>
      <rsc_location id="run_ip_resource" rsc="ip_resource">
        <rule id="pref_run_ip_resource" score="100">
          <expression attribute="#uname" operation="eq" value="cache1"/>
        </rule>
      </rsc_location>
    </constraints>

   
上面的主要意思应该也就是加一个IP地址资源,这个IP地址是192.168.11.10,也就是两个CACHE上的浮动地址,这个浮动地址是在eth0上的。主用是在cache1上。
这个配置是在cache1上的,主用(resource location)在cache1上。
如果做双地址浮动,可以实现双机互备(而不是主备),再加一个IP地址资源在cache2上就可以。
cache2上的配置和cache1上差不多,ha.cf,logd.cf,authkeys内容都是一样的。
配置完成后,在rc.local里写上/etc/init.d/heartbeat start,然后两台机器都重启一下。
这时候可以用crm_mon看一下,我的输出是这样的,cache1上:
Last updated: Sat Apr 12 20:12:07 2008
Current DC: cache2 (b3b95984-acb7-4ca6-ab40-c9a6c18e192a)
2 Nodes configured.
1 Resources configured.
============

Node: cache2 (b3b95984-acb7-4ca6-ab40-c9a6c18e192a): online
Node: cache1 (15347a3b-44a4-4eb3-5ab1-e6cf15fab0b4): online

ip_resource     (heartbeat:cf:IPaddr):        Started cache1

cache2上的输出:
Last updated: Sat Apr 12 20:08:13 2008
Current DC: cache2 (b3b95984-acb7-4ca6-ab40-c9a6c18e192a)
2 Nodes configured.
1 Resources configured.
============

Node: cache2 (b3b95984-acb7-4ca6-ab40-c9a6c18e192a): online
Node: cache1 (15347a3b-44a4-4eb3-5ab1-e6cf15fab0b4): online

ip_resource     (heartbeat:cf:IPaddr):        Started cache1
这时候主用在cache1上,在cache1上用ifconfig能看到浮动地址。
如果这时候我重启cache1,来模拟宕机,在cache2上crm_mon输出
Last updated: Sat Apr 12 20:14:35 2008
Current DC: cache2 (b3b95984-acb7-4ca6-ab40-c9a6c18e192a)
2 Nodes configured.
1 Resources configured.
============

Node: cache2 (b3b95984-acb7-4ca6-ab40-c9a6c18e192a): online
Node: cache1 (15347a3b-44a4-4eb3-5ab1-e6cf15fab0b4): OFFLINE

ip_resource     (heartbeat:cf:IPaddr):        Started cache2
这时候在cache2上ifconfig能看到浮动IP已经到了cache2上。
当cache1启动起来回复正常以后,浮动IP又回到了cache1上。
我的E文很烂,看heartbeat文档半懂不懂的,特别是cib.xml部分,看了两个小时一点头绪都没有,看着一堆example糊里糊涂乱写乱一通,竟然成了,自己都觉得神奇。
接下来的事情就比较简单了:
在两台Cache上分别配置相同的varnish和nginx,nginx做前端,承担日志记录和负载分担功能,把web请求均匀分担到主备两台缓存的varnish上,也就是在nginx配置里设置upstream分别为浮动地址和备机真实地址,主备两台缓存一起为主用服务器上的nginx提供请求响应。我把主机头判断和后台服务器的主备监测放到varnish上实现。
如果主用服务器宕机,对外web地址浮动到备用服务器上,这时候虽然nginx仍然以为自己是在向两个后端进行请求的负载分担,但实际是分别发送到备机的真实IP和浮动IP上,其实也就是备机上缓存服务。当主机恢复以后,浮动地址回到主用服务器上,缓存服务的负载分担也恢复。
而后端web服务的宕机,由varnish里的restart来实现。这个部分还没有仔细检验过,只是以前玩varnish的时候稍稍试了下。准备下周有空进行试验。

在保证同等理想的带宽条件下,进行了一个小测试:从同一个客户端发起单线程的HTTP请求,大约每次测试取100个以上的页面,页面大小大约为3K左右,没有图片,都是文本HTML,服务器端不压缩,取耗时的平均值。实际上通过HTTP取页面的过程在单位的网络条件下,网络上的延时可以忽略。
直接访问原服务器(IIS6+ASP+SQLServer),平均耗时是902ms/page,这个时间是包括HTTP取页面以及分析提取页面中链接的过程。基本上每个页面都要查库(新闻发布页面)。
通过cache访问,在cache建立过程中,也就是cache中没有被缓存对象时,测得平均耗时是907ms/page。
如果cache里已经有被请求的对象,则平均耗时是135ms/page。
可见缓存对提高WEB响应速度还是非常有帮助的。

论坛徽章:
0
2 [报告]
发表于 2008-04-15 11:32 |只看该作者

nginx和varnish的详细配置:

nginx和varnish的详细配置:

nginx的配置文件如下:

user  www www;

worker_processes 2;

error_log  /usr/local/nginx/logs/error.log;

pid        /usr/local/nginx/var/nginx.pid;

worker_rlimit_nofile 51200;

events

{

       use epoll;

       worker_connections 51200;

}

http

{

       include       mime.types;

       default_type  application/octet-stream;

       log_format  main  '$remote_addr $remote_user - [$time_local] "$request" '

                         '$status $body_bytes_sent "$http_referer" '

                         '"$http_user_agent" ';



       log_format timing '$remote_addr $remote_user - [$time_local] $request '

                  'upstream_response_time $upstream_response_time '

                  'msec $msec request_time $request_time';



       log_format up_head '$remote_addr $remote_user - [$time_local] $request '

                   'upstream_http_content_type $upstream_http_content_type';



       access_log  /usr/local/nginx/logs/access.log  main;



       keepalive_timeout 30;

       server_tokens off;

       sendfile        on;

       #tcp_nopush        on;

       tcp_nodelay       on;



upstream bk1 {

    server 192.168.111.10:8080;

    server 192.168.111.20:8080;

}

       server

       {

           listen       80;

           client_max_body_size 50M;

           server_name  .mysite.cn .mysite.com

           index index.htm index.html index.asp index.aspx;

           root  /www/default;

           #error_page  403 500 502 503 504  /404.html;

           #limit_conn httplimit 10;

           location /status {

                    stub_status             on;

                    access_log              off;

                    #auth_basic              "NginxStatus";

                    #auth_basic_user_file  conf/htpasswd;

           }

           location /varnish {

               alias /www/default/varnish.txt;

               default_type text/plain;

           }

           location /crm {

               alias /www/default/crm.txt;

               default_type text/plain;

           }

           location / {



               proxy_redirect off;

               proxy_set_header Host $host;

               proxy_set_header X-Real-IP $remote_addr;

               proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

               client_max_body_size 50m;

               client_body_buffer_size 256k;

               proxy_connect_timeout 30;

               proxy_send_timeout 30;

               proxy_read_timeout 60;

               proxy_buffer_size 4k;

               proxy_buffers 4 32k;

               proxy_busy_buffers_size 64k;

               proxy_temp_file_write_size 64k;

               #proxy_next_upstream error timeout invalid_header http_500 http_503 http_404;

               proxy_max_temp_file_size 128m;

               if (!-f $request_filename) {

                   proxy_pass http://bk1;

               }

           }

       }

}



Varnish的配置文件如下:

acl purge {  

"localhost";

         }   

backend bk1 {

    set backend.host = "192.168.111.110";

    set backend.port = "80";

}

backend bk2 {

    set backend.host = "192.168.111.111";

    set backend.port = "80";

}



sub vcl_recv {           

    if (req.http.host ~ "mysite.cn") {

        if (req.restarts == 0) {

            set req.backend=bk1;

        }

        else {

            set req.backend=bk2;

        }

    }

    else {

        if (req.http.host ~ "mysite.com"") {

            if (req.restarts == 0) {

                set req.backend=bk2;

            }

            else {

                set req.backend=bk1;

            }

        }

        else {

            error 200 "No cahce for this domain";

        }

    }

    if (req.request == "PURGE") {        

        if (!client.ip ~ purge) {        

            error 405 "Not allowed.";   

        }   

        else {

            lookup;      

        }   

    }        

    if (req.request != "GET" && req.request != "HEAD") {

        pipe;

    }        

    if (req.http.Expect) {  

        pipe;

    }        

    if (req.http.Authenticate ){         

        pass;

    }        

   

    if (req.http.Cache-Control ~ "no-cache") {      

        pass;

    }        

    if(req.url ~ "purge.php"){           

        pass;

    }        



    if (req.url ~ "\.(htm|html|jpg|jpeg|gif|png|tiff|tif|svg|swf|ico|css|js|vsd|doc|ppt|pps|xls|pdf|mp3|mp4|m4a|ogg|mov|avi|wma|flv|wmv|sxw|zip|gz|bz2|tgz|tar|rar|odc|odb|odf|odg|odi|odp|ods|odt|sxc|sxd|sxi|sxw|dmg|torrent|deb|msi|iso|rpm)$") {

        lookup;         

    }

    lookup;  

}            

sub vcl_pipe {           

        if (bereq.http.x-forwarded-for) {

set bereq.http.X-forwarded-for =     

    bereq.http.X-forwarded-for ", "  

    regsub(client.ip, ":.*", "");   

        } else {         

set bereq.http.X-forwarded-for =     

    regsub(client.ip, ":.*", "") ;   

        }   

    pipe;   

}            



sub vcl_pass {           

        if (bereq.http.x-forwarded-for) {

set bereq.http.X-forwarded-for =     

    bereq.http.X-forwarded-for ", "  

    regsub(client.ip, ":.*", "");   

        } else {         

set bereq.http.X-forwarded-for =     

    regsub(client.ip, ":.*", "");   

        }   

    pass;   

}            



sub vcl_hash {           

    set req.hash += req.url;

    if (req.http.host) {

        set req.hash += req.http.host;   

    } else {

        set req.hash += server.ip;      

    }        

    hash;   

}            



sub vcl_hit {

    if (req.request == "PURGE") {        

         set obj.ttl = 0s;  

         error 200 "Purged.";            

    }        

    if (!obj.cacheable) {

        pass;

    }        

    #set obj.http.X-TTL = obj.ttl;      

    deliver;

}            



sub vcl_miss {           

    if (req.request == "PURGE") {        

        error 404 "Not in cache.";      

    }        

    fetch;   

}            



sub vcl_fetch {         



    if (obj.status >400 && req.restarts == 0 )     

    {        

        restart;         

    }        



    if (!obj.valid) {   

        error;           

    }        

    if (!obj.cacheable) {

        pass;

    }        

   

    if (obj.status == 404) {

        pass;

    }        

    if (obj.ttl < 120000s) {

        set obj.ttl = 120000s;

    }        



    if (req.url ~ "\.(html|htm|jpg|jpeg|gif|png|tiff|tif|svg|swf|ico|css|js|vsd|doc|ppt|pps|xls|pdf|mp3|mp4|m4a|ogg|mov|avi|wma|flv|wmv|sxw|zip|gz|bz2|tgz|tar|rar|odc|odb|odf|odg|odi|odp|ods|odt|sxc|sxd|sxi|sxw|dmg|torrent|deb|msi|iso|rpm)$") {  

        insert;         

    }        



    if (obj.http.Pragma ~ "no-cache" || obj.http.Cache-Control ~ "no-cache" || obj.http.Cache-Control ~ "private") {         

        set obj.http.MYCACHE ="force-cache";

        insert;

        #pass;

    }        



    insert;  

}            



sub vcl_deliver {        

    deliver;

}            



sub vcl_timeout {        

    discard;

}            



sub vcl_discard {        

    discard;

}

[ 本帖最后由 minuteman 于 2008-4-15 11:33 编辑 ]

论坛徽章:
0
3 [报告]
发表于 2008-04-23 12:00 |只看该作者
刚好要做热备,参考好文,慢慢消化 谢谢

论坛徽章:
0
4 [报告]
发表于 2008-05-13 17:47 |只看该作者
OK,搞的不丑

论坛徽章:
0
5 [报告]
发表于 2008-06-05 09:51 |只看该作者
:wink: :wink:

支持原创 !

要是楼主可以画个图形 补充说明你的架构 那是最好啦

论坛徽章:
0
6 [报告]
发表于 2008-06-05 10:28 |只看该作者
能帮忙去掉一楼的表情吗?

看着有些乱

论坛徽章:
0
7 [报告]
发表于 2008-07-09 10:58 |只看该作者
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP