欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

003.MMM双主-双从读写分离部署

程序员文章站 2022-08-17 13:01:36
一 前期规划1.1 主机规划1.2 虚拟IP规划1.3 用户列表提示:以上角色需要在所有节点添加。1.4 整体架构1.4 hosts修改 1 [root@localhost ~]# vi /etc/sysconfig/network 2 NETWORKING=yes 3 HOSTNAME=Maste... ......

一 前期规划

1.1 主机规划

1.2 虚拟ip规划


1.3 用户列表

提示:以上角色需要在所有节点添加。

1.4 整体架构

1.4 hosts修改

  1 [root@localhost ~]# vi /etc/sysconfig/network
  2 networking=yes
  3 hostname=master01
  4 [root@master01 ~]# vi /etc/hosts
  5 master01    172.24.8.10
  6 master02    172.24.8.11
  7 slave01     172.24.8.12
  8 slave02     172.24.8.13
  9 monitor     172.24.8.20

提示:所有主机添加对应的hostname和hosts,此步骤非必须,为方便之后简化配置,建议修改hosts。

1.5 ntp配置

略,具体可参考笔记ntp-《003.ntp客户端配置》。
提示:针对高可用的优化,建议所有节点均配置ntp服务。

二 部署mysql

2.1 安装mysql

略,具体可参考mysql主从复制-《mysql高可用主从复制部署》。
提示:除去monitor节点外所有节点均需要部署。

三 双主复制部署

3.1 master01 my.cf配置

  1 [root@master01 ~]# vi /etc/my.cnf
  2 [mysqld]
  3 ……
  4 server-id=1				#设置主服务器master的id
  5 log-bin=mysql-bin			#配置二进制变更日志命名格式
  6 replicate-wild-ignore-table=mysql.%
  7 replicate-wild-ignore-table=test.%
  8 replicate-wild-ignore-table=information_schema.%
  9 sync-binlog=1              		#每条自动更新,安全性高,默认是0
 10 auto_increment_increment=2  	#字段一次递增多少
 11 auto_increment_offset=1    		#自增字段的起始值
 12 log_slave_updates          		#当一个主故障,另一个立即接管
 13 read_only=1

注意:
master开启二进制日志后默认记录所有库所有表的操作,可以通过配置来指定只记录指定的数据库甚至指定的表的操作,具体在mysql配置文件的[mysqld]可添加修改如下选项:
方法一:
  1 # 不同步哪些数据库
  2 binlog-ignore-db = mysql
  3 binlog-ignore-db = test
  4 binlog-ignore-db = information_schema
  5 # 只同步哪些数据库,除此之外,其他不同步
  6 binlog-do-db = mysqltest

方法二:
建议采用以下方式配置过滤:
  1 replicate-wild-ignore-table=mysql.%	#从库配置不同步表
  2 replicate-wild-do-table=test.%		#从库配置需要同步的表

提示:不要在主库使用binlog-ignore-db和binlog-do-db,也不要在从库使用replicate-wild-ignore和replicate-wild-do-table。

3.2 master02 my.cf配置

  1 [root@master01 ~]# service mysqld start
  2 [root@master01 ~]# mysql -uroot -px120952576
  3 mysql> grant replication slave on *.* to 'repl_user'@'172.24.8.%' identified by 'x12345678';
#创建用于复制的账号
  4 mysql> grant replication client on *.* to 'mmm_monitor'@'172.24.8.%' identified by 'x12345678';
#创建用于监控mysql服务健康的账号
  5 mysql> grant super,replication client,process on *.* to 'mmm_agent'@'172.24.8.%' identified by 'x12345678';
#创建用于切换只读模式、同步master信息的账号
  6 mysql> grant select,insert,update,delete,create,drop on *.* to 'mmm_test'@'172.24.8.%'  identified by 'x120952576' with grant option;        #创建之后用于读写分离测试的账号
  7 mysql> flush privileges;
  8 [root@master01 ~]# service mysqld restart
  9 [root@master01 ~]# mysql -uroot -px120952576
 10 mysql> show master status;

master01:
file:mysql-bin.000001
position:120
注意:读写分离对于用于super或者all privileges权限的用户无效,需要创建普通用户进行测试。

3.4 master02创建账号

略,同3.3 master01创建账号同样操作即可。
  1 [root@master01 ~]# service mysqld restart
  2 [root@master01 ~]# mysql -uroot -px120952576
  3 mysql> show master status;

master02:
file:mysql-bin.000001
position:120

3.5 启动双主复制

提示:如果master01和master02已经存在数据,则在开启主备复制之前,需要将master01和master02手动同步一次(/var/lib/mysql整个目录打包tar.gz),具体方法略。
注意:本实验都是重新安装的mysql,可直接启动同步
  1 [root@master01 ~]# mysql -uroot -px120952576
  2 enter password:
  3 mysql> change master to master_host='172.24.8.11',
  4     -> master_user='repl_user',
  5     -> master_password='x12345678',
  6     -> master_log_file='mysql-bin.000001',
  7 -> master_port=3306,
  8     -> master_log_pos=120;
  9 mysql> start slave;
 10 mysql> show slave status\g			#查看slave状态

3.3 启动master02的slave功能

  1 [root@master02 ~]# mysql -uroot -px120952576
  2 mysql> change master to master_host='172.24.8.10',
  3     -> master_user='repl_user',
  4     -> master_password='x12345678',
  5     -> master_log_file='mysql-bin.000001',
  6     -> master_log_pos=120;
  7 mysql> start slave;
  8 mysql> show slave status\g			#查看slave状态

提示:
slave的i/o和sql线程都已经开始运行,而且seconds_behind_master不再是null。日志的位置增加了,意味着一些事件被获取并执行了。如果你在master上进行修改,你可以在slave上看到各种日志文件的位置的变化,同样,你也可以看到数据库中数据的变化。

四 其他节点配置

4.1 所有slave节点配置配置

  1 [root@master01 ~]# scp /etc/my.cnf root@172.24.8.12:/etc/
  2 [root@master01 ~]# scp /etc/my.cnf root@172.24.8.13:/etc/
  3 [root@slave01 ~]# vi /etc/my.cnf
  4 [mysqld]
  5 ……
  6 server-id=3				#设置主服务器slave01的id
  7 [root@slave02 ~]# vi /etc/my.cnf
  8 [mysqld]
  9 ……
 10 server-id=4				#设置主服务器slave02的id

提示:从master01将复制my.cnf至所有节点(除去monitor外),并修改相应的server id。

4.2 所有slave节点创建账号

  1 [root@slave01 ~]# service mysqld start
  2 [root@slave01 ~]# mysql -uroot -px120952576
  3 mysql> grant replication slave on *.* to 'repl_user'@'172.24.8.%' identified by 'x12345678';			                               #创建用于复制的账号
  4 mysql> grant replication client on *.* to 'mmm_monitor'@'172.24.8.%' identified by 'x12345678';			                               #创建用于监控mysql服务健康的账号
  5 mysql> grant super,replication client,process on *.* to 'mmm_agent'@'172.24.8.%' identified by 'x12345678';
                                       #创建用于切换只读模式、同步master信息的账号
  6 mysql> grant select,insert,update,delete,create,drop on *.* to 'mmm_test'@'172.24.8.%'  identified by 'x120952576' with grant option;	               #创建之后用于读写分离测试的账号
  7 mysql> flush privileges;

提示:slave02如上操作。

4.2 slave节点配置master01为主

  1 [root@slave01 ~]# service mysqld restart
  2 [root@slave01 ~]# mysql -uroot -px120952576
  3 mysql> change master to master_host='172.24.8.10',
  4     -> master_user='repl_user',
  5     -> master_password='x12345678',
  6     -> master_log_file='mysql-bin.000001',
  7     -> master_log_pos=120;
  8 mysql> start slave;
  9 mysql> show slave status\g        #查看slave状态

提示:slave02如上操作。
注意:读写分离对于用于super或者all privileges权限的用户无效,需要创建普通用户进行测试。

五 安装mmm组件

5.1 监控monitor节点安装mmm

  1 [root@monitor tmp]# wget http://mirrors.ustc.edu.cn/epel/epel-release-latest-6.noarch.rpm
  2 [root@monitor tmp]# rpm -ivh epel-release-latest-6.noarch.rpm
  3 [root@monitor ~]# yum -y install mysql-mmm*

5.2 其他节点安装mmm

  1 [root@master01 ~]# wget http://mirrors.ustc.edu.cn/epel/epel-release-latest-6.noarch.rpm
  2 [root@master01 ~]# rpm -ivh epel-release-latest-6.noarch.rpm
  3 [root@master01 ~]# yum -y install mysql-mmm-agent

注意:
  • mmm组件在常规yum中不包含,需要安装epel源;
  • 除monitor节点外其他节点只需要安装mysql-mmm-agent即可。

提示:若yum安装出现以下报错,建议在所有节点改用编译安装,操作见附1-附2:

附1 添加安装perl脚本

  1 [root@master01 ~]# cat install.sh
  2 #!/bin/bash
  3 wget http://xrl.us/cpanm --no-check-certificate
  4 mv cpanm /usr/bin
  5 chmod 755 /usr/bin/cpanm
  6 cat > /root/list << eof
  7 install algorithm::diff
  8 install class::singleton
  9 install dbi
 10 install dbd::mysql
 11 install file::basename
 12 install file::stat
 13 install file::temp
 14 install log::dispatch
 15 install log::log4perl
 16 install mail::send
 17 install net::arp
 18 install net::ping
 19 install proc::daemon
 20 install thread::queue
 21 install time::hires
 22 eof
 23 for package in `cat /root/list`
 24 do
 25     cpanm $package
 26 done

附2 编译安装

  1 [root@master01 tmp]# wget http://mysql-mmm.org/_media/:mmm2:mysql-mmm-2.2.1.tar.gz
  2 [root@master01 tmp]# mv \:mmm2\:mysql-mmm-2.2.1.tar.gz mysql-mmm-2.2.1.tar.gz
  3 [root@master01 tmp]# tar -zxvf mysql-mmm-2.2.1.tar.gz
  4 [root@master01 tmp]# cd mysql-mmm-2.2.1/
  5 [root@master01 mysql-mmm-2.2.1]# make install

注意,注意,注意:
通常使用以上编译安装也会失败,强烈建议使用yum安装,但yum安装必须使得mysql版本为mysql-community-server-5.6.37(或以上)!

5.3 目录构成

目录
介绍
/usr/lib/perl5/vendor_perl/5.8.8/mmm
mmm使用的主要perl模块
/usr/lib/mysql-mmm
mmm使用的主要脚本
/usr/sbin
mm使用的主要命令的路径
/etc/init.d/
mmm的agent和monitor启动服务的目录
/etc/mysql-mmm
mmm配置文件的路径,默认所以的配置文件
/var/log/mysql-mmm
默认的mmm保存日志的位置

六 配置mmm

6.1 master01的mmm_agent配置

  1 [root@master01 ~]# vi /etc/mysql-mmm/mmm_agent.conf
  2 include mmm_common.conf
  3 this db1

提示:设置db1的配置信息,此db1名字可自定义,但必须和mmm_common.conf 中一致。

6.2 master01的mmm_common配置

  1 [root@master01 ~]# vi /etc/mysql-mmm/mmm_common.conf
  2 active_master_role      writer
  3 #当设置为writer的时候,需要在所有mysql节点设置“read_only=1”,则mmm会本剧每个节点的角色进行动态判断,当mmm的角色设置<role writer>时候,则会自动添加“set global read_only=0”操作,即打开写权限。
  4 <host default>
  5 cluster_interface       eth0			        #设置网络接口,不能为子接口。
  6 pid_path                /var/run/mysql-mmm/mmm_agentd.pid	#设定pid文件路径
  7 bin_path                /usr/libexec/mysql-mmm/		#设置mmm可执行文件路径
  8 replication_user        repl_user			        #设置复制的用户名
  9 replication_password    x12345678			        #设置复制的用户名的密码
 10 agent_user              mmm_agent			        #设置更改只读操作的用户
 11 agent_password          x12345678			        #设置更改只读操作用户的密码
 12 </host>
 13 
 14 <host db1>                          #设置db1的配置信息,此db1名字可自定义,但必须和mmm_agent.conf中一致。
 16 ip      172.24.8.10			#设置db1的物理ip
 17 mode    master			#设置db1角色为master
 18 peer    db2				#设置db1对等的主机名,即db2和db1均为master
 19 </host>
 20 
 21 <host db2>				#类似db1的设置
 22 ip      172.24.8.11
 23 mode    master
 24 peer    db1
 25 </host>
 26 
 27 <host db3>				#类似db1的设置
 28     ip      172.24.8.12
 29     mode    slave			#设置db3的角色为slave
 30 </host>
 31 
 32 <host db4>				#类似db1的设置
 33     ip      172.24.8.13
 34     mode    slave			#设置db4的角色为slave
 35 </host>
 36 
 37 <role writer>			#设置可写角色
 38 hosts   db1, db2			#设置可执行写操作的主机
 39 ips     172.24.8.100		#设置可写的虚拟ip
 40 mode    exclusive	                #设置角色的模式为互斥,互斥角色只有一个ip,并且同一时间只能分配一个主机。
 41 </role>
 42 
 43 <role reader>			#设置只读角色
 44 hosts   db1, db2, db3, db4		#设置只读角色的主机
 45 ips     172.24.8.101, 172.24.8.102, 172.24.8.103, 172.24.8.104
 46 #设置可读的虚拟ip,可以有多个。
 47 mode    balanced
#设置角色的模式为负载均衡,在负载均衡角色中,可以有多个ip,这些ip被均衡地、动态地分配给多个mysql主机。
 49 </role>

6.3 master01的mysql-mmm-agent配置

  1 [root@master01 ~]# vi /etc/default/mysql-mmm-agent
  2 enabled=1

注意:使用yum安装则不需要配置mysql-mmm-agent ,默认已经添加了enabled=1。

6.4 其他节点配置

  1 [root@master01 ~]# scp /etc/mysql-mmm/mmm_common.conf root@172.24.8.11:/etc/mysql-mmm/
  2 [root@master01 ~]# scp /etc/mysql-mmm/mmm_common.conf root@172.24.8.12:/etc/mysql-mmm/
  3 [root@master01 ~]# scp /etc/mysql-mmm/mmm_common.conf root@172.24.8.13:/etc/mysql-mmm/
  4 [root@master01 ~]# scp /etc/default/mysql-mmm-agent root@172.24.8.11://etc/default/
  5 [root@master01 ~]# scp /etc/default/mysql-mmm-agent root@172.24.8.12://etc/default/
  6 [root@master01 ~]# scp /etc/default/mysql-mmm-agent root@172.24.8.13://etc/default/

提示:所有节点的mysql-mmm-agent和mmm_common.conf内容一致,从master01复制即可,monitor不需要配置agent。
  1 [root@master02 ~]# vi /etc/mysql-mmm/mmm_agent.conf
  2 include mmm_common.conf
  3 this db2
  4 [root@slave01 ~]## vi /etc/mysql-mmm/mmm_agent.conf
  5 include mmm_common.conf
  6 this db3
  7 [root@slave02 ~]## vi /etc/mysql-mmm/mmm_agent.conf
  8 include mmm_common.conf
  9 this db4

6.5 管理monitor节点配置

  1 [root@monitor ~]# vi /etc/mysql-mmm/mmm_mon.conf
  2 include mmm_common.conf
  3 <monitor>
  4     ip                  127.0.0.1                          #为了安全,只设置本机监听,mmm_mond默认监听的端口为9988
  6     pid_path            /var/run/mysql-mmm/mmm_mond.pid    #设置mmm_mond进程pid文件位置
  8     bin_path            /usr/libexec/mysql-mmm             #mmm可执行文件路径
 10     status_path         /var/lib/mysql-mmm/mmm_mond.status #mmm集群的状态文件
 12     ping_ips            172.24.8.10, 172.24.8.11, 172.24.8.12, 172.24.8.13
 13 #用于测试的ip,只要其中有一个地址能ping通,代表网络正常,不要写入本机(即monitor)ip。
 14     auto_set_online     60                                 #设置是否自动上线,若大于0,抖动的主机在抖动时间范围过后,自动上线。
 16 ……
 17 </monitor>
 18 
 19 <host default>
 20     monitor_user        mmm_monitor                        #设置mmm_monitor账号。
 22     monitor_password    x12345678                          #设置mmm_monitor密码。
 24 </host>
 25 debug 0                                                    #mmm管理器的运行模式,1为debug模式,0为正常模式。

注意:mmm-mon.conf只需要在监控管理monitor节点上配置即可。

七 mmm集群的启动

7.1 管理监控monitor节点启动

  1 [root@monitor ~]# /etc/init.d/mysql-mmm-monitor start
  2 [root@monitor ~]# chkconfig mysql-mmm-monitor on

7.2 所有agent节点启动

  1 [root@master01 ~]# /etc/init.d/mysql-mmm-agent start
  2 [root@master01 ~]# chkconfig mysql-mmm-agent on
  3 [root@master02 ~]# /etc/init.d/mysql-mmm-agent start
  4 [root@master02 ~]# chkconfig mysql-mmm-agent on
  5 [root@slave01 ~]# /etc/init.d/mysql-mmm-agent start
  6 [root@slave01 ~]# chkconfig mysql-mmm-agent on
  7 [root@slave02 ~]# /etc/init.d/mysql-mmm-agent start
  8 [root@slave02 ~]# chkconfig mysql-mmm-agent on

八 mmm基本维护

8.1 mmm常见命令

  1 [root@monitor ~]# mmm_control help
  2 valid commands are:
  3     help                              - show this message	        #显示帮助信息
  4     ping                              - ping monitor		#测试网络运行状态
  5     show                              - show status		        #显示mmm集群节点状态
  6     checks [<host>|all [<check>|all]] - show checks status          #显示mmm集群中指定(所有)节点的详细状态
  8     set_online <host>                 - set host <host> online      #将mmm集群中的节点设置为online状态
 10     set_offline <host>                - set host <host> offline     #将mmm集群中的节点设置为offline状态
 12     mode                              - print current mode.         #显示mmm集群当前的运行模式,有active(默认)、manual和passive三种模式。
 14     set_active                        - switch into active mode.
 15     set_manual                        - switch into manual mode.
 16     set_passive                       - switch into passive mode.   #切换mmm集群到以上三种模式。
 18     move_role [--force] <role> <host> - move exclusive role <role> to host <host>
 19 #在互斥模式下切换角色
 20                                      (only use --force if you know what you are doing!)
 21     set_ip <ip> <host>                - set role with ip <ip> to host <host>
 22 #用来在被动模式下操纵角色

8.2 查看集群状态

  1 [root@monitor ~]# mmm_control show
解释:
online:节点运行正常,处于在线状态;
admin_offline:节点是通过手动模式离线的;
hard_offline:节点是mmm集群执行ping操纵失败或检测到mysql失败而切换的一种状态;
awaiting_recovery:等待恢复状态;
replication_fail:主从复制失败状态,一般由于复制主线程没运行导致;
replication_delay:复制日志有延迟,一般是由于检测日志失败导致的。

8.3 查看集群运行模式

  1 [root@monitor ~]# mmm_control mode
解释:
active:表示主动模式,也是默认模式,即活动的master故障后另一个备份的master可自动接管故障master角色,继续提供服务。slave故障后其他节点的slave也会自动接管故障slave角色,继续提供服务。
manual:表示手动模式,该模式不会自动执行切换,节点故障需要手动进行切换。
passive:表示被动模式,在此模式下,mmm管理端不会改变集群节点的角色,也不更新状态文件和发送任何信息给每个agent节点。

8.4 检查节点情况

  1 [root@monitor ~]# mmm_control checks all
解释:
ping:主要用来探测网络可用性;
mysql:检测mysql服务器是否运行正常;
rep_threads:检测mysql的复制线程是否正常运行;
rep_backlog:检测mysql的复制日志是否有积压。
注意:
以上四个检测任何一项出现问题,都会进行角色切换操作,从而保证mysql服务的高可用性。

8.5 日志文件

db端:/var/log/mysql-mmm/mmm_agentd.log
监控端:/var/log/mysql-mmm/mmm_mond.log

九 测试mmm

9.1 测试集群复制功能

  1 [root@client ~]# mysql -uroot -px120952576 -h172.24.8.100
  2 mysql> show variables like "%hostname%";
  3 mysql> show variables like "%server_id%";

  1 mysql> create database mysqltest;
  2 mysql> use mysqltest;
  3 mysql> create table user(id int(5),name char(10));
  4 mysql> insert into user values (00001,'zhangsan');

在slave从服务器上进行验证:
  1 [root@master02 ~]# mysql -uroot -px120952576
  2 mysql> show databases;
  3 mysql> select * from mysqltest.user;

其他所有slave节点测试略。

9.2 读写分离测试

  1 [root@client ~]# mysql -ummm_test -px120952576 -h172.24.8.101
  2 mysql> use mysqltest;
  3 mysql> create table test_mmm(id int,email varchar(100));

结论:从reader权限的vip进入后只能进行读,不能写,实现了读写分离。

9.3 故障转移测试

a master转移
  1 [root@monitor ~]# mmm_control show			#查看现有集群情况
  1 [root@master01 ~]# service mysqld stop		#停止master01节点
  2 [root@monitor ~]# mmm_control show			#再次查看集群节点情况

  1 [root@master01 ~]# service mysqld start		#再次启动master01节点
  2 [root@monitor ~]# mmm_control show

结论:由上可知当master01节点故障时,writer vip自动切换到master02上,当master01节点重新启动,writer vip并不会切回master01,类似keepalived中的不抢占模式,若需要master01切回writer,可执行以下命令手动切回:
  1 [root@monitor ~]# mmm_control move_role writer db1
  2 [root@monitor ~]# mmm_control show

b slave转移
  1 [root@slave01 ~]# service mysqld stop
  2 [root@monitor ~]# mmm_control show

  1 [root@slave01 ~]# service mysqld start
  2 [root@monitor ~]# mmm_control show

结论:由上可知当slave01节点故障时,reader vip自动切换到master02上,当slave01节点重新启动,reader vip会切回slave01。

十 mmm总结

  1. master02节点宕机不影响集群的状态,只是移除了master02节点的读状态;
  2. master01主节点宕机,由master02主节点接管写角色,slave01、slave02指向新master02主库进行复制,slave01、slave02会自动change master到master02;
  3. mmm架构需要多个节点、多个ip,对服务器数量有要求;
  4. 在读写非常繁忙的业务系统下表现不是很稳定,可能会出现复制延时、切换失效等问题;
  5. mmm方案并不太适应于对数据安全性要求很高,并且读、写繁忙的环境中
参考资料1:http://www.cnblogs.com/chenmh/p/5563778.html
参考资料2:http://www.cnblogs.com/gomysql/p/3671896.html
参考资料3:《循序渐进linux》