一、环境简述
参考:http://lizhenliang.blog.51cto.com/7876557/1354576
1、工作逻辑图
2、MySQL-MMM优缺点
优点:高可用性,扩展性好,出现故障自动切换,对于主主同步,在同一时间只提供一台数据库写操作,保证的数据的一致性。
缺点:Monitor节点是单点,可以结合Keepalived实现高可用。
3、MySQL-MMM工作原理
MMM(Master-Master replication managerfor Mysql,Mysql主主复制管理器)是一套灵活的脚本程序,基于perl实现,用来对mysql replication进行监控和故障迁移,并能管理mysql Master-Master复制的配置(同一时间只有一个节点是可写的)。
mmm_mond:监控进程,负责所有的监控工作,决定和处理所有节点角色活动。此脚本需要在监管机上运行。
mmm_agentd:运行在每个mysql服务器上的代理进程,完成监控的探针工作和执行简单的远端服务设置。此脚本需要在被监管机上运行。
mmm_control:一个简单的脚本,提供管理mmm_mond进程的命令。
mysql-mmm的监管端会提供多个虚拟IP(VIP),包括一个可写VIP,多个可读VIP,通过监管的管理,这些IP会绑定在可用mysql之上,当某一台mysql宕机时,监管会将VIP迁移至其他mysql。
在整个监管过程中,需要在mysql中添加相关授权用户,以便让mysql可以支持监理机的维护。授权的用户包括一个mmm_monitor用户和一个mmm_agent用户,如果想使用mmm的备份工具则还要添加一个mmm_tools用户。
4、需求描述
操作系统:CentOS 6.5_X64
数据库:MySQL 5.1
MMM:MySQL-MMM 2.2.1
数据库分配:
| function | ip | hostname | server id | 
| monitoring host | 192.168.0.201 | monitor | 无 | 
| master 1 | 192.168.0.202 | db1 | 1 | 
| master 2 | 192.168.0.203 | db2 | 2 | 
| slave 1 | 192.168.0.204 | db3 | 3 | 
| slave 2 | 192.168.0.205 | db4 | 4 | 
虚拟IP地址(VIP):
| ip | role | 
| 192.168.0.211 | writer | 
| 192.168.0.212 | reader | 
| 192.168.0.213 | reader | 
数据库同步需要的用户:
| function | description | privileges | 
| monitor user | mmm监控用于对mysql服务器进程健康检查 | REPLICATION CLIENT | 
| agent user | mmm代理用来更改只读模式,复制的主服务器等 | SUPER, REPLICATION CLIENT, PROCESS | 
| replication user | 用于复制 | REPLICATION SLAVE | 
二、db1,db2,db3和db4安装数据库并配置
| 1 2 3 | [root@db1 ~]# yum install mysql-server mysql[root@db1 ~]# service mysqld start[root@db1 ~]# mysqladmin -u root password 123.com | 
| 1 2 3 4 5 6 7 8 9 10 11 12 13 | [root@db1 ~]# vi /etc/my.cnf   #添加如下[mysqld]binlog-do-db=test#需要记录二进制日志的数据库,多个用逗号隔开binlog-ignore-db=mysql,information_schema  #不需要记录二进制日志的数据库,多个用逗号隔开auto_increment_increment=2  #字段一次递增多少auto_increment_offset=1     #自增字段的起始值,值设置不同replicate-do-db=test#同步的数据库,多个写多行replicate-ignore-db = information_schema #不同步的数据库,多个写多行server_id = 1               #每台设置不同log_bin = mysql-binlog_slave_updates           #当一个主故障,另一个立即接管sync-binlog=1               #每条自动更新,安全性高,默认是0[root@db1 ~]# service mysqld restart | 
三、配置db1和db2主主同步
#先查看下log bin日志和pos值位置

db1配置如下:
| 1 2 3 4 5 6 7 8 9 10 | [root@db1 ~]# mysql -u root -p123.commysql> GRANT REPLICATION SLAVE ON *.* TO 'replication'@'192.168.0.%'IDENTIFIED BY 'replication';mysql> flush privileges;mysql> change master to    -> master_host='192.168.0.203',    -> master_user='replication',    -> master_password='replication',    -> master_log_file='mysql-bin.000002',-> master_log_pos=106;  #对端状态显示的值mysql> start slave;     #启动同步 | 
db2配置如下:
| 1 2 3 4 5 6 7 8 9 10 | [root@db2 ~]# mysql -u root -p123.commysql> GRANT REPLICATION SLAVE ON *.* TO 'replication'@'192.168.0.%'IDENTIFIED BY 'replication';mysql> flush privileges;mysql> change master to    -> master_host='192.168.0.202',    -> master_user='replication',    -> master_password='replication',    -> master_log_file='mysql-bin.000002',    -> master_log_pos=106;mysql> start slave;  #启动同步 | 
#主主同步配置完毕,查看同步状态Slave_IO和Slave_SQL是YES说明主主同步成功。
在db2插入数据测试下:
在db2查看是否同步成功:
可以看到已经成功同步过去,同样在db2插入到user表数据,也能同步过去。我们的双主就成功了,开始做主从复制。
四、配置slave1和slave2做为master1的从库
#先看下master1状态值
在slave1和slave2分别执行:
| 1 2 3 4 5 6 | mysql> change master to    -> master_host='192.168.0.202',    -> master_user='replication',    -> master_password='replication',    -> master_log_file='mysql-bin.000002',    -> master_log_pos=434; | 
在slave1和slave2查看如下说明主从复制成功。但是数据没过来,这是因为主从复制原理只同步配置完后的增删改记录,以后的数据是不能同步的,我们可以把主的数据库备份了,然后在送数据库还原。
| 1 2 3 4 5 | [root@db1 ~]# mysqldump -uroot -p123.com test > test.sql[root@db1 ~]# scp test.sql root@192.168.0.204:/root/[root@db1 ~]# scp test.sql root@192.168.0.205:/root/[root@db3 ~]# mysql -u root -p123.com test < test.sql[root@db4 ~]# mysql -u root -p123.com test < test.sql | 
五、MySQL-MMM安装配置
CentOS默认没有mysql-mmm软件包,官方推荐使用epel的网络源,五台都安装epel:
rpm -ivh http://mirrors.ustc.edu.cn/fedora/epel/6/x86_64/epel-release-6-8.noarch.rpm
1、monitor节点安装
[root@monitor ~]# yum -y install mysql-mmm-monitor
2、四台db节点安装
[root@db1 ~]# yum -y install mysql-mmm-agent
3、在四台db节点授权monitor访问
| 1 2 3 | [root@db ~]# mysql -u root -p123.commysql> GRANT REPLICATIONCLIENT ON *.* TO 'mmm_monitor'@'192.168.0.%'IDENTIFIED BY 'monitor';                   mysql> GRANT SUPER,REPLICATION CLIENT, PROCESS ON *.* TO 'mmm_agent'@'192.168.0.%'IDENTIFIED BY'agent'; | 
4、修改mmm_common.conf文件(五台相同)
| 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 | [root@monitor ~]# vi /etc/mysql-mmm/mmm_common.confactive_master_role      writer<host default>    cluster_interface       eth0    pid_path               /var/run/mysql-mmm/mmm_agentd.pid    bin_path                /usr/libexec/mysql-mmm/    replication_user        replication    replication_password    replication    agent_user              mmm_agent    agent_password          agent</host><host db1>    ip     192.168.0.202    mode   master    peer   db2</host><host db2>    ip     192.168.0.203    mode   master    peer   db1</host><host db3>    ip     192.168.0.204    mode   slave</host><host db4>    ip     192.168.0.205    mode   slave</host><role writer>    hosts  db1, db2    ips    192.168.0.211    mode   exclusive    #只有一个host可以writer,一般写操作是这个模式</role><role reader>    hosts  db3, db4    ips    192.168.0.212,192.168.0.213    mode   balanced     #多个host可以reader,一般读操作是这个模式</role> | 
#通过scp命令传送到其他四台:
scp /etc/mysql-mmm/mmm_common.conf root@192.168.0.202/203/204/205:/etc/mysql-mmm/
5、修改四台db代理端mmm_agent.conf文件
| 1 2 3 | [root@db ~]# vi /etc/mysql-mmm/mmm_agent.confinclude mmm_common.confthis db1   #分别修改为本机的主机名,即db1、db2、db3和db4 | 
6、修改管理端mmm_mon.conf文件
| 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 | [root@monitor ~]# vi /etc/mysql-mmm/mmm_mon.confinclude mmm_common.conf<monitor>    ip                  127.0.0.1    pid_path            /var/run/mysql-mmm/mmm_mond.pid    bin_path            /usr/libexec/mysql-mmm    status_path         /var/lib/mysql-mmm/mmm_mond.status    ping_ips            192.168.0.202,192.168.0.203,192.168.0.204,192.168.0.205#真实数据库IP,来检测网络是否正常    auto_set_online     10  #恢复后自动设置在线的时间</monitor><host default>    monitor_user        mmm_monitor    monitor_password    monitor</host>debug 0 | 
六、启动MySQL-MMM
1、db代理端启动
[root@db1 ~]# /etc/init.d/mysql-mmm-agent start
[root@db1 ~]# chkconfigmysql-mmm-agent on
2、monitor管理端启动
[root@monitor ~]# /etc/init.d/mysql-mmm-monitor start
[root@monitor ~]# chkconfigmysql-mmm-monitor on
七、测试集群
1、查看集群状态
由此看来,主db1是对外一个写入的角色,但不真正提供只写,要想实现读写分离还需要结合amoeba。后面的虚拟IP是真正来访问Mysql数据库的。
2、故障转移切换
停掉主db1数据库,等待几秒后,可以看到数据库db1处于HARD_OFFLINE(离线状态),检测不到数据库的存在。
启动主db1数据库后,可以看到数据库db1处于AWAITING_RECOVER(恢复状态),几秒后将恢复在线状态。模拟Slave故障也是如此,DOWN掉一个,虚拟IP会全部在另一台正常数据库上。
至此,MySQL-MMM架构配置完毕。后续会写在此基础上实现读写分离、负载均衡机制。如图:
原文链接:MySQL高可用集群之MySQL-MMM,转载请注明来源!
