免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
1234下一页
最近访问板块 发新帖
查看: 23198 | 回复: 30
打印 上一主题 下一主题

【原创】mysql-mmm+amoeba+keepalived实现mysql高可用和读写分离 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2010-11-11 17:52 |只看该作者 |倒序浏览
本帖最后由 飞鸿无痕 于 2010-11-11 23:04 编辑

mysql-mmm+amoeba+keepalived架构简介:利用mysql-mmm来实现mysql的高可用,利用amoeba来实现读写分离,利用keepalived来实现amoeba程序的高可用。从而从整体上实现mysql的高可用行。

一、        MMM简介:
MMM即Master-Master Replication Manager for MySQL(mysql主主复制管理器)关于mysql主主复制配置的监控、故障转移和管理的一套可伸缩的脚本套件(在任何时候只有一个节点可以被写入),这个套件也能对居于标准的主从配置的任意数量的从服务器进行读负载均衡,所以你可以用它来在一组居于复制的服务器启动虚拟ip,除此之外,它还有实现数据备份、节点之间重新同步功能的脚本。
MySQL本身没有提供replication failover的解决方案,通过MMM方案能实现服务器的故障转移,从而实现mysql的高可用。MMM不仅能提供浮动IP的功能,更牛的是如果当前的主服务器挂掉后,会将你后端的从自动转向新的主服务器进行同步复制,不用手工更改同步资料。
MMM项目来自 Google:http://code.google.com/p/mysql-master-master
官方网站为:http://mysql-mmm.org

Mmm主要功能由下面三个脚本提供
        mmm_mond  负责所有的监控工作的监控守护进程,决定节点的移除等等
        mmm_agentd  运行在mysql服务器上的代理守护进程,通过简单远程服务集提供给监控节点
        mmm_control  通过命令行管理mmm_mond进程

二、        mysql-mmm架构的搭建
1、        先来看下本文的架构图:



当master1出现故障的时候,架构图会自动屏蔽master1,并自动将slave1和slave2更改成从master2更新,架构图变成如下:



2、        先介绍下本文的环境:
系统环境:CentOS release 5.4(32bit)
function          ip                              hostname         server id
Monitor         192.168.1.163               Server3              -
master 1         192.168.1.161              Server1              1
master 2         192.168.1.162              Server2              2
slave 1            192.168.1.164              Server4              5
slave 2            192.168.1.165              Server5              6
Amoeba1       192.168.1.167               Server6              -
Amoeba2       192.168.1.168               Server7              -

我用了以下的虚拟IP,他们将会在被mmm分配,这些IP都是浮动的,当出现故障的时候会自动的转移到其他的可用服务器上。
ip                            role                     description
192.168.1.113         writer                   你的应用程序应该连接到这个ip进行写操作
192.168.1.111         reader                  你的应用程序应该链接到这些ip中的一个进行读操作
192.168.1.112         reader        
192.168.1.114         reader        
192.168.1.115         reader        
192.168.1.170        Amoeba_vip           程序连接的Ip,实现mysql读写分离

mysql-mmm架构配置简介:
        在server1、server2上安装mysql,并配置为master-master架构(就是互为主从)----------配置很简单,就不对着部分进行详细解释,有问题的话请查看:http://blog.chinaunix.net/u3/93755/showart.php?id=2213538
        配置server4,server5从server1获取更新   ------这一步很简单,自行设置,有一点需要注意,就是设置同步不能设置浮动IP,要使用真实的IP。
        在server1、server2、server3、server4、server5上安装mmm,并配置:mmm_common.conf、mmm_agent.conf以及mmm_mon.conf文件

3、        Mysql-mmm实战
前提:server1和server2上已经配置好mysql主主同步,server4、server5设置好了利用server1为主服务器的主从同步
        安装mysql-mmm(在server1,server2,server3,server4,server5上都要安装)
CentOS软件仓库默认是不含这些软件的,必须要有epel这个包的支持。故我们必须先安装epel:
  1. wget  http://download.fedora.redhat.co ... ease-5-4.noarch.rpm
  2. rpm -Uvh epel-release-5-4.noarch.rpm
  3. yum -y install mysql-mmm*
复制代码


        配置mmm代理和监控账号的权限
在server1,server2,server4,server5上分别执行:
  1. GRANT REPLICATION CLIENT ON *.* TO 'mmm_monitor'@'192.168.1.%' IDENTIFIED BY 'monitor_password';
  2. GRANT SUPER, REPLICATION CLIENT, PROCESS ON *.* TO 'mmm_agent'@'192.168.1.%'   IDENTIFIED BY 'agent_password';
  3. flush privileges;
复制代码


        配置mysql-mmm
所有的配置选项都集合在了一个叫/etc/mysql-mmm/mmm_common.conf的单独文件中,系统中所有主机的该文件内容都是一样的, 配置完后不要忘记了拷贝这个文件到所有的主机(包括监控主机)!,内容如下:
  1. active_master_role      writer

  2. <host default>
  3.     cluster_interface       eth0
  4.     pid_path                /var/run/mysql-mmm/mmm_agentd.pid
  5. bin_path                /usr/libexec/mysql-mmm/
  6. #同步的帐号(这些要和前面设置的保持一致!)
  7.     replication_user        replication   
  8.     replication_password    123456        #同步的密码
  9.     agent_user              mmm_agent        #mmm-agent用户名
  10.     agent_password          agent_password        #mmm-agent用户密码
  11. </host>

  12. <host db1>
  13.     ip      192.168.1.161        #db1的ip
  14.     mode    master
  15.     peer    db2
  16. </host>

  17. <host db2>
  18.     ip      192.168.1.162        #db2的ip
  19.     mode    master
  20.     peer    db1
  21. </host>

  22. <host db3>
  23.     ip      192.168.1.164   #从db3的ip
  24.     mode    slave
  25. </host>

  26. <host db4>
  27.     ip      192.168.1.165   #从db4的ip
  28.     mode    slave
  29. </host>


  30. <role writer>
  31.     hosts   db1, db2
  32.     ips     192.168.1.113        #设置写如的虚拟IP
  33.     mode    exclusive
  34. </role>

  35. <role reader>
  36.     hosts   db1, db2, db3, db4
  37.     ips     192.168.1.111, 192.168.1.112, 192.168.1.114, 192.168.1.115        #设置读取的虚拟IP
  38.     mode    balanced
  39. </role>
复制代码


在数据库主机上我们需要编辑/etc/mysql-mmm/mmm_agent.conf文件,根据其他主机的不同更改db1的值(db2就将db1更改成db2…….):
  1. include mmm_common.conf
  2. this db1
复制代码


在监控主机上我们需要编辑/etc/mysql-mmm/mmm_mon.conf文件:
  1. include mmm_common.conf

  2. <monitor>
  3.     ip                  127.0.0.1
  4.     pid_path            /var/run/mysql-mmm/mmm_mond.pid
  5.     bin_path            /usr/libexec/mysql-mmm
  6.     status_path         /var/lib/mysql-mmm/mmm_mond.status
  7.     ping_ips            192.168.1.161,192.168.1.162, 192.168.1.164,192.168.1.165  #监控服务器ip
  8.     auto_set_online     60

  9.     # The kill_host_bin does not exist by default, though the monitor will
  10.     # throw a warning about it missing.  See the section 5.10 "Kill Host
  11.     # Functionality" in the PDF documentation.
  12.     #
  13.     # kill_host_bin     /usr/libexec/mysql-mmm/monitor/kill_host
  14.     #
  15. </monitor>

  16. <host default>
  17.     monitor_user        mmm_monitor        #mmm_monitor用户名
  18.     monitor_password    monitor_password #mmm_monitor密码
  19. </host>

  20. debug 0
复制代码



       启动MMM
启动代理:
(在数据库服务器上server1、2)编辑/etc/default/mysql-mmm-agent来开启:
  1. ENABLED=1
复制代码

然后启动它:
  1. /etc/init.d/mysql-mmm-agent start
复制代码

启动监控(在监控机上):
  1. /etc/init.d/mysql-mmm-monitor start
复制代码


        利用mmm_control监控mysql服务器状态:
  1. [root@server3 ~]#  mmm_control show
  2.   db1(192.168.1.161) master/ONLINE. Roles: reader(192.168.1.111), writer(192.168.1.113)
  3.   db2(192.168.1.162) master/ONLINE. Roles: reader(192.168.1.114)
  4.   db3(192.168.1.164) slave/ONLINE. Roles: reader(192.168.1.115)
  5.   db4(192.168.1.165) slave/ONLINE. Roles: reader(192.168.1.112)
复制代码


        测试看两个mysql服务器能否实现故障自动切换
停掉作为写的db1上的mysql,查看写的服务器会不会自动转移到db2上去
停掉几秒钟后用mmm_control show查看:
  1. [root@server3 ~]#  mmm_control show
  2.   db1(192.168.1.161) master/HARD_OFFLINE. Roles:
  3.   db2(192.168.1.162) master/ONLINE. Roles: reader(192.168.1.112), writer(192.168.1.113)
  4.   db3(192.168.1.164) slave/ONLINE. Roles: reader(192.168.1.114), reader(192.168.1.115)
  5.   db4(192.168.1.165) slave/ONLINE. Roles: reader(192.168.1.111)
复制代码

我们可以看到已经把db2当作主写服务器,另外server4、server5原来是从server1更新的现在已经被mmm自动更改到从新的主服务器server2上更新了,很神奇!可以登录到server4、server5上用show slave status\G;命令查看!

再来看看db1恢复后会是什么情况:
  1. [root@server3 ~]#  mmm_control show
  2.   db1(192.168.1.161) master/ONLINE. Roles: reader(192.168.1.114)
  3.   db2(192.168.1.162) master/ONLINE. Roles: reader(192.168.1.112), writer(192.168.1.113)
  4.   db3(192.168.1.164) slave/ONLINE. Roles: reader(192.168.1.115)
  5.   db4(192.168.1.165) slave/ONLINE. Roles: reader(192.168.1.111)
复制代码

我们可以看到当db1恢复后就充当slave的角色了!只有当db2挂了以后db1又会担当起主服务器的写入功能
发现个bug,不知道有没有人遇到过:有的时候会出现服务器恢复后,服务器的状态被设置为:AWAITING_RECOVERY,必须要手工执行mmm_control set_online host才能恢复正常,比如:有的时候我恢复db1后,出现如下:
  1. [root@server3 ~]#  mmm_control show
  2.   db1(192.168.1.161) master/AWAITING_RECOVERY. Roles:
  3.   db2(192.168.1.162) master/ONLINE. Roles: reader(192.168.1.112), writer(192.168.1.113)
  4.   db3(192.168.1.164) slave/ONLINE. Roles: reader(192.168.1.114), reader(192.168.1.115)
  5.   db4(192.168.1.165) slave/ONLINE. Roles: reader(192.168.1.111)
复制代码

解决办法为利用set_online手工更改为在线状态:
  1. [root@server3 ~]#  mmm_control set_online db1
  2. OK: State of 'db1' changed to ONLINE. Now you can wait some time and check its new roles!
  3. [root@server3 ~]#  mmm_control show
  4.   db1(192.168.1.161) master/ONLINE. Roles: reader(192.168.1.114)
  5.   db2(192.168.1.162) master/ONLINE. Roles: reader(192.168.1.112), writer(192.168.1.113)
  6.   db3(192.168.1.164) slave/ONLINE. Roles: reader(192.168.1.115)
  7.   db4(192.168.1.165) slave/ONLINE. Roles: reader(192.168.1.111)
复制代码

解决这个问题CU网友提供了一个办法就是将auto_set_online设置小点,默认是60s,设置成10看下会不会有改善?我测试的是改小后没出现,回头多测试几次看看。

        mmm_control命令简介
  1. [root@server3 mysql-mmm]# mmm_control help
  2. Valid commands are:
  3.     help                              - show this message
  4.    #查看帮助信息
  5. ping                              - ping monitor
  6. #ping监控
  7. show                              - show status
  8. #查看状态信息
  9. checks [<host>|all [<check>|all]] - show checks status
  10. #显示检查状态,包括(ping、mysql、rep_threads、rep_backlog)
  11. set_online <host>                 - set host <host> online
  12. #设置某host为online状态
  13. set_offline <host>                - set host <host> offline
  14. #设置某host为offline状态
  15. mode                              - print current mode.
  16. #打印当前的模式,是ACTIVE、MANUAL、PASSIVE?
  17. #默认ACTIVE模式
  18. set_active                        - switch into active mode.
  19. #更改为active模式
  20. set_manual                        - switch into manual mode.
  21. #更改为manual模式
  22. set_passive                       - switch into passive mode.
  23. #更改为passive模式
  24. move_role [--force] <role> <host> - move exclusive role <role> to host <host>
  25. #更改host的模式,比如更改处于slave的mysql数据库角色为write   
  26. (Only use --force if you know what you are doing!)
  27. set_ip <ip> <host>                - set role with ip <ip> to host <host>
  28. #为host设置ip,只有passive模式的时候才允许更改!
复制代码

论坛徽章:
0
2 [报告]
发表于 2010-11-11 17:54 |只看该作者
本帖最后由 飞鸿无痕 于 2010-11-11 23:10 编辑

三、        利用amoeba实现高可用下的读写分离
1、        关于amoeba的介绍和安装我这里不做介绍了,请查看:http://blog.chinaunix.net/u3/93755/showart.php?id=2363202,有什么问题我们再一起讨论。
2、        Amoeba在mysql-mmm架构下的配置
配置的除了amoeba的监听IP外其他的均采用上面mmm分配的浮动IP,因为当出现故障后,浮动IP会自动分配到正常的server上。amoeba.xml的配置如下:
  1. <?xml version="1.0" encoding="gbk"?>

  2. <!DOCTYPE amoeba:configuration SYSTEM "amoeba.dtd">
  3. <amoeba:configuration xmlns:amoeba="http://amoeba.meidusa.com/">

  4.         <server>
  5.                 <!-- proxy server绑定的端口 -->
  6.                 <property name="port">3306</property>
  7.                
  8.                <!-- proxy server绑定的IP要设置成0.0.0.0,因为后面还要监听VIP -->
  9.                 <property name="ipAddress">0.0.0.0</property>
  10.                 <!-- proxy server net IO Read thread size -->
  11.                 <property name="readThreadPoolSize">20</property>
  12.                
  13.                 <!-- proxy server client process thread size -->
  14.                 <property name="clientSideThreadPoolSize">30</property>
  15.                
  16.                 <!-- mysql server data packet process thread size -->
  17.                 <property name="serverSideThreadPoolSize">30</property>
  18.                
  19.                 <!-- socket Send and receive BufferSize(unit:K)  -->
  20.                 <property name="netBufferSize">128</property>
  21.                
  22.                 <!-- Enable/disable TCP_NODELAY (disable/enable Nagle's algorithm). -->
  23.                 <property name="tcpNoDelay">true</property>
  24.                
  25.                 <property name="user">root</property>
  26.                 <property name="password">password</property>
  27.                
  28.                 <!-- query timeout( default: 60 second , TimeUnit:second) -->
  29.                 <property name="queryTimeout">60</property>
  30.         </server>
  31.         
  32.         <!--
  33.                 每个ConnectionManager都将作为一个线程启动。
  34.                 manager负责Connection IO读写/死亡检测
  35.         -->
  36.         <connectionManagerList>
  37.                 <connectionManager name="defaultManager" class="com.meidusa.amoeba.net.MultiConnectionManagerWrapper">
  38.                         <property name="subManagerClassName">com.meidusa.amoeba.net.AuthingableConnectionManager</property>
  39.                         
  40.                         <!--
  41.                           default value is avaliable Processors
  42.                         <property name="processors">5</property>
  43.                          -->
  44.                 </connectionManager>
  45.         </connectionManagerList>
  46.         
  47.         <dbServerList>
  48.                 <!--
  49.                         一台mysqlServer 需要配置一个pool,
  50.                         如果多台 平等的mysql需要进行loadBalance,
  51.                         平台已经提供一个具有负载均衡能力的objectPool:com.meidusa.amoeba.mysql.server.MultipleServerPool
  52.                         简单的配置是属性加上 virtual="true",该Pool 不允许配置factoryConfig
  53.                         或者自己写一个ObjectPool。
  54.                 -->
  55.                 <dbServer name="server1">
  56.                         
  57.                         <!-- PoolableObjectFactory实现类 -->
  58.                         <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
  59.                                 <property name="manager">defaultManager</property>
  60.                                 
  61.                                 <!-- 真实mysql数据库端口 -->
  62.                                 <property name="port">3306</property>
  63.                                 
  64.                                 <!-- 真实mysql数据库IP -->
  65.                                 <property name="ipAddress">192.168.1.113</property>
  66.                                 <property name="schema">test</property>
  67.                                 
  68.                                 <!-- 用于登陆mysql的用户名 -->
  69.                                 <property name="user">zhang</property>
  70.                                 
  71.                                 <!-- 用于登陆mysql的密码 -->
  72.                                 <property name="password">zhang123</property>
  73.                                 
  74.                         </factoryConfig>
  75.                         
  76.                         <!-- ObjectPool实现类 -->
  77.                         <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
  78.                                 <property name="maxActive">200</property>
  79.                                 <property name="maxIdle">200</property>
  80.                                 <property name="minIdle">10</property>
  81.                                 <property name="minEvictableIdleTimeMillis">600000</property>
  82.                                 <property name="timeBetweenEvictionRunsMillis">600000</property>
  83.                                 <property name="testOnBorrow">true</property>
  84.                                 <property name="testWhileIdle">true</property>
  85.                         </poolConfig>
  86.                 </dbServer>
  87.                

  88.                 <dbServer name="server2">
  89.                         
  90.                         <!-- PoolableObjectFactory实现类 -->
  91.                         <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
  92.                                 <property name="manager">defaultManager</property>
  93.                                 
  94.                                 <!-- 真实mysql数据库端口 -->
  95.                                 <property name="port">3306</property>
  96.                                 
  97.                                 <!-- 真实mysql数据库IP -->
  98.                                 <property name="ipAddress">192.168.1.111</property>
  99.                                 <property name="schema">test</property>
  100.                                 
  101.                                 <!-- 用于登陆mysql的用户名 -->
  102.                                 <property name="user">zhang</property>
  103.                                 
  104.                                 <!-- 用于登陆mysql的密码 -->
  105.                                 <property name="password">zhang123</property>
  106.                                 
  107.                         </factoryConfig>
  108.                         
  109.                         <!-- ObjectPool实现类 -->
  110.                         <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
  111.                                 <property name="maxActive">200</property>
  112.                                 <property name="maxIdle">200</property>
  113.                                 <property name="minIdle">10</property>
  114.                                 <property name="minEvictableIdleTimeMillis">600000</property>
  115.                                 <property name="timeBetweenEvictionRunsMillis">600000</property>
  116.                                 <property name="testOnBorrow">true</property>
  117.                                 <property name="testWhileIdle">true</property>
  118.                         </poolConfig>
  119.                 </dbServer>


  120.                 <dbServer name="server3">
  121.                         
  122.                         <!-- PoolableObjectFactory实现类 -->
  123.                         <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
  124.                                 <property name="manager">defaultManager</property>
  125.                                 
  126.                                 <!-- 真实mysql数据库端口 -->
  127.                                 <property name="port">3306</property>
  128.                                 
  129.                                 <!-- 真实mysql数据库IP -->
  130.                                 <property name="ipAddress">192.168.1.112</property>
  131.                                 <property name="schema">test</property>
  132.                                 
  133.                                 <!-- 用于登陆mysql的用户名 -->
  134.                                 <property name="user">zhang</property>
  135.                                 
  136.                                 <!-- 用于登陆mysql的密码 -->
  137.                                 <property name="password">zhang123</property>
  138.                                 
  139.                         </factoryConfig>
  140.                         
  141.                         <!-- ObjectPool实现类 -->
  142.                         <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
  143.                                 <property name="maxActive">200</property>
  144.                                 <property name="maxIdle">200</property>
  145.                                 <property name="minIdle">10</property>
  146.                                 <property name="minEvictableIdleTimeMillis">600000</property>
  147.                                 <property name="timeBetweenEvictionRunsMillis">600000</property>
  148.                                 <property name="testOnBorrow">true</property>
  149.                                 <property name="testWhileIdle">true</property>
  150.                         </poolConfig>
  151.                 </dbServer>


  152.                 <dbServer name="server4">
  153.                         
  154.                         <!-- PoolableObjectFactory实现类 -->
  155.                         <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
  156.                                 <property name="manager">defaultManager</property>
  157.                                 
  158.                                 <!-- 真实mysql数据库端口 -->
  159.                                 <property name="port">3306</property>
  160.                                 
  161.                                 <!-- 真实mysql数据库IP -->
  162.                                 <property name="ipAddress">192.168.1.114</property>
  163.                                 <property name="schema">test</property>
  164.                                 
  165.                                 <!-- 用于登陆mysql的用户名 -->
  166.                                 <property name="user">zhang</property>
  167.                                 
  168.                                 <!-- 用于登陆mysql的密码 -->
  169.                                 <property name="password">zhang123</property>
  170.                                 
  171.                         </factoryConfig>
  172.                         
  173.                         <!-- ObjectPool实现类 -->
  174.                         <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
  175.                                 <property name="maxActive">200</property>
  176.                                 <property name="maxIdle">200</property>
  177.                                 <property name="minIdle">10</property>
  178.                                 <property name="minEvictableIdleTimeMillis">600000</property>
  179.                                 <property name="timeBetweenEvictionRunsMillis">600000</property>
  180.                                 <property name="testOnBorrow">true</property>
  181.                                 <property name="testWhileIdle">true</property>
  182.                         </poolConfig>
  183.                 </dbServer>


  184.                 <dbServer name="server5">
  185.                         
  186.                         <!-- PoolableObjectFactory实现类 -->
  187.                         <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
  188.                                 <property name="manager">defaultManager</property>
  189.                                 
  190.                                 <!-- 真实mysql数据库端口 -->
  191.                                 <property name="port">3306</property>
  192.                                 
  193.                                 <!-- 真实mysql数据库IP -->
  194.                                 <property name="ipAddress">192.168.1.115</property>
  195.                                 <property name="schema">test</property>
  196.                                 
  197.                                 <!-- 用于登陆mysql的用户名 -->
  198.                                 <property name="user">zhang</property>
  199.                                 
  200.                                 <!-- 用于登陆mysql的密码 -->
  201.                                 <property name="password">zhang123</property>
  202.                                 
  203.                         </factoryConfig>
  204.                         
  205.                         <!-- ObjectPool实现类 -->
  206.                         <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
  207.                                 <property name="maxActive">200</property>
  208.                                 <property name="maxIdle">200</property>
  209.                                 <property name="minIdle">10</property>
  210.                                 <property name="minEvictableIdleTimeMillis">600000</property>
  211.                                 <property name="timeBetweenEvictionRunsMillis">600000</property>
  212.                                 <property name="testOnBorrow">true</property>
  213.                                 <property name="testWhileIdle">true</property>
  214.                         </poolConfig>
  215.                 </dbServer>



  216.                
  217.                 <dbServer name="master" virtual="true">
  218.                         <poolConfig class="com.meidusa.amoeba.server.MultipleServerPool">
  219.                                 <!-- 负载均衡参数 1=ROUNDROBIN , 2=WEIGHTBASED , 3=HA-->
  220.                                 <property name="loadbalance">1</property>
  221.                                 
  222.                                 <!-- 参与该pool负载均衡的poolName列表以逗号分割 -->
  223.                                 <property name="poolNames">server1</property>
  224.                         </poolConfig>
  225.                 </dbServer>

  226.                 <dbServer name="slave" virtual="true">
  227.                         <poolConfig class="com.meidusa.amoeba.server.MultipleServerPool">
  228.                                 <!-- 负载均衡参数 1=ROUNDROBIN , 2=WEIGHTBASED , 3=HA-->
  229.                                 <property name="loadbalance">1</property>
  230.                                 
  231.                                 <!-- 参与该pool负载均衡的poolName列表以逗号分割 -->
  232.                                 <property name="poolNames">server2,server3,server4,server5</property>
  233.                         </poolConfig>
  234.                 </dbServer>
  235.                
  236.         </dbServerList>
  237.         
  238.         <queryRouter class="com.meidusa.amoeba.mysql.parser.MysqlQueryRouter">
  239.                 <property name="ruleConfig">${amoeba.home}/conf/rule.xml</property>
  240.                 <property name="functionConfig">${amoeba.home}/conf/functionMap.xml</property>
  241.                 <property name="ruleFunctionConfig">${amoeba.home}/conf/ruleFunctionMap.xml</property>
  242.                 <property name="LRUMapSize">1500</property>
  243.                 <property name="defaultPool">master</property>
  244.                 <property name="writePool">master</property>
  245.                 <property name="readPool">slave</property>
  246.                 <property name="needParse">true</property>
  247.         </queryRouter>
  248. </amoeba:configuration>
复制代码


3、        启动amoeba
  1. /usr/local/amoeba/bin/amoeba &   
复制代码

检验启动是否成功(使用的是默认的8066端口):
  1. [root@server3 ~]# ps aux | grep amoeba
  2. root     15390  0.2 21.7 411800 55684 pts/0    Sl   Nov09   0:13 /usr/java/jdk1.6/bin/java -server -Xms256m -Xmx256m -Xss128k -Damoeba.home=/usr/local/amoeba -Dclassworlds.conf=/usr/local/amoeba/bin/amoeba.classworlds -classpath /usr/local/amoeba/lib/classworlds-1.0.jar org.codehaus.classworlds.Launcher
复制代码


4、        测试
为了有权限,请在所有mysql-server上添加上面配置的用户名和密码,比如:
  1. grant all on test.* to zhang@'192.168.1.%' identified by 'zhang123';
  2. flush privileges;
复制代码

测试的时候比较麻烦,因为如果把主从停掉来看效果的话,mmm会将该同步状态有问题的服务器设置成REPLICATION_FAIL并将该主机上的浮动IP移动到正常服务器,比如:我将server4停掉后,就出出现如下现象:
  1. [root@server3 ~]#  mmm_control show
  2.   db1(192.168.1.161) master/ONLINE. Roles: reader(192.168.1.114), reader(192.168.1.115)
  3.   db2(192.168.1.162) master/ONLINE. Roles: reader(192.168.1.112), writer(192.168.1.113)
  4.   db3(192.168.1.164) slave/REPLICATION_FAIL. Roles:
  5.   db4(192.168.1.165) slave/ONLINE. Roles: reader(192.168.1.111)
复制代码

暂时没想到很好的测试办法。读写分离测试没有问题。
最近手头没有空闲的机器来做压力测试。等有了机器了再对这个架构做下压力测试!


四、        利用keepalived实现amoeba高可用
Keepalived简介:Keepalived是Linux下面实现VRRP 备份路由的高可靠性运行件。基于Keepalived设计的服务模式能够真正做到主服务器和备份服务器故障时IP瞬间无缝交接。从而提高系统的可用性

1、        keepalived的安装(server6、server7上都要安装):
  1. wget [url]http://www.keepalived.org/software/keepalived-1.1.19.tar.gz[/url]
  2. tar zxvf keepalived-1.1.19.tar.gz
  3. cd keepalived-1.1.19
  4. ./configure --prefix=/usr/local/keepalived
  5. make
  6. make install
  7. cp /usr/local/keepalived/sbin/keepalived /usr/sbin/
  8. cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
  9. cp /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/
  10. mkdir /etc/keepalived
  11. cd /etc/keepalived/
复制代码


2、        keepalived的配置
配置server6的keepalived配置文件/etc/keepalived/keepalived.conf,内容如下:
  1. bal_defs {
  2.         notification_email {
  3.                [email]jimo291@gmail.com[/email]
  4.         }
  5.         notification_email_from [email]jimo291@gmail.com[/email]
  6.         smtp_server 127.0.0.1
  7.         smtp_connect_timeout 30
  8.         router_id test1
  9. }


  10. vrrp_instance VI_1 {
  11.         state MASTER
  12.         interface eth0
  13.         virtual_router_id 51
  14.         priority 100
  15.         advert_int 1
  16.         smtp_alert
  17.         authentication {
  18.                 auth_type PASS
  19.                 auth_pass 123
  20.         }

  21.         virtual_ipaddress {
  22.                 192.168.1.170
  23.         }
  24. }
复制代码


配置server6的keepalived配置文件/etc/keepalived/keepalived.conf,内容如下:

  1. bal_defs {
  2.         notification_email {
  3.                 [email]jimo291@gmail.com[/email]
  4.         }
  5.         notification_email_from [email]jimo291@gmail.com[/email]
  6.         smtp_server 127.0.0.1
  7.         smtp_connect_timeout 30
  8.         router_id test2
  9. }

  10. vrrp_instance VI_1 {
  11.         state BACKUP
  12.         interface eth0
  13.         virtual_router_id 51
  14.         priority 80
  15.         advert_int 1
  16.         smtp_alert
  17.         authentication {
  18.                 auth_type PASS
  19.                 auth_pass 123
  20.         }
  21.         virtual_ipaddress {
  22.                 192.168.1.170
  23.         }
  24. }
复制代码


3、        keepalived的启动:
在server6、server7上执行如下命令启动:
  1. /etc/rc.d/init.d/keepalived start
复制代码

看看server6上是否绑定了虚拟IP192.168.1.170
  1. [root@server6 ~]# ip add | grep 192.168.1.170
  2. inet 192.168.1.170/32 scope global eth0
复制代码

可以看到已经成功绑定了192.168.1.170。
4、        测试
停掉server6,看看虚拟IP192.168.1.170会不会自动切换到server7上。以及测试mysql -uroot -ppassword -h192.168.1.170登录,看看能否实现读写操作是否正常等等!

备注:最后记得将所有的启动命令都写到/etc/rc.local文件中去,实现开机启动!

论坛徽章:
0
3 [报告]
发表于 2010-11-11 22:28 |只看该作者
Good Job,回头等机器空闲下来了,我也试试!

论坛徽章:
0
4 [报告]
发表于 2010-11-11 23:11 |只看该作者
真是郁闷,一帖还发不完!

论坛徽章:
0
5 [报告]
发表于 2010-11-12 00:38 |只看该作者
回复 1# 飞鸿无痕



呵呵     太庞大了   此贴必火!      精华就更不用说啦    {:3_203:}

论坛徽章:
0
6 [报告]
发表于 2010-11-12 09:53 |只看该作者
楼主,你装个phpwind或者discuz,访问时有乱码。

论坛徽章:
0
7 [报告]
发表于 2010-11-12 10:04 |只看该作者
回复 6# squall1

好的,我测试下先,回头把那些有问题的语句提取出来发给amoeba的开发看看,谢谢提醒。上次用我们公司自己的网站代码测试没发现问题。

论坛徽章:
2
2015年辞旧岁徽章
日期:2015-03-03 16:54:1515-16赛季CBA联赛之上海
日期:2016-05-05 09:45:14
8 [报告]
发表于 2010-11-12 11:04 |只看该作者
amoeba好像默认走UTF-8编码,,DISCUZ或PHPWIND如果是gb3212的话, 可能是这个原因吧!

论坛徽章:
0
9 [报告]
发表于 2010-11-12 11:23 |只看该作者
回复 1# 飞鸿无痕


兄弟  mysql-proxy很不稳定,用了没多久就自己关闭了

你能帮我贴一下阿米巴的配置文件么?   我现在还不知道咋改那个文件,你修改一下告诉我行么?    谢谢了

我的实现为一写两读
192.168.1.10  写
192.168.1.20  读
192.168.1.30  读

mysql的root密码都是123456

  麻烦你给我贴个阿米巴的配置文件  {:3_201:}

论坛徽章:
0
10 [报告]
发表于 2010-11-12 11:26 |只看该作者
amoeba好像默认走UTF-8编码,,DISCUZ或PHPWIND如果是gb3212的话, 可能是这个原因吧!
badb0y 发表于 2010-11-12 11:04



拉丁的。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP