关于mysql:MySQL主从复制读写分离看这篇就够了

42次阅读

共计 5832 个字符,预计需要花费 15 分钟才能阅读完成。

简介: 什么是主从复制,如何实现读写拆散,看这篇你就懂了!

思维导图

文章已收录到我的 Github 精选,欢送 Star:https://github.com/yehongzhi/learningSummary

前言

在很多我的项目,特地是互联网我的项目,在应用 MySQL 时都会采纳主从复制、读写拆散的架构。

为什么要采纳主从复制读写拆散的架构?如何实现?有什么毛病?让咱们带着这些问题开始这段学习之旅吧!

为什么应用主从复制、读写拆散

主从复制、读写拆散个别是一起应用的。目标很简略,就是 为了进步数据库的并发性能。你想,假如是单机,读写都在一台 MySQL 下面实现,性能必定不高。如果有三台 MySQL,一台 mater 只负责写操作,两台 salve 只负责读操作,性能不就能大大提高了吗?

所以 主从复制、读写拆散就是为了数据库能反对更大的并发

随着业务量的扩大、如果是单机部署的 MySQL,会导致 I / O 频率过高。采纳 主从复制、读写拆散能够进步数据库的可用性

主从复制的原理

①当 Master 节点进行 insert、update、delete 操作时,会按程序写入到 binlog 中。

②salve 从库连贯 master 主库,Master 有多少个 slave 就会创立多少个 binlog dump 线程。

③当 Master 节点的 binlog 发生变化时,binlog dump 线程会告诉所有的 salve 节点,并将相应的 binlog 内容推送给 slave 节点。

④I/ O 线程接管到 binlog 内容后,将内容写入到本地的 relay-log。

⑤SQL 线程读取 I / O 线程写入的 relay-log,并且依据 relay-log 的内容对从数据库做对应的操作。

如何实现主从复制

我这里用三台虚拟机 (Linux) 演示,IP 别离是 104(Master),106(Slave),107(Slave)。

预期的成果是一主二从,如下图所示:

Master 配置

应用命令行进入 mysql:

mysql -u root -p

接着输出 root 用户的明码(明码遗记的话就网上查一下重置明码吧~),而后创立用户:

//192.168.0.106 是 slave 从机的 IP
GRANT REPLICATION SLAVE ON *.* to 'root'@'192.168.0.106' identified by 'Java@1234';
//192.168.0.107 是 slave 从机的 IP
GRANT REPLICATION SLAVE ON *.* to 'root'@'192.168.0.107' identified by 'Java@1234';
// 刷新零碎权限表的配置
FLUSH PRIVILEGES;

创立的这两个用户在配置 slave 从机时要用到。

接下来在找到 mysql 的配置文件 /etc/my.cnf,减少以下配置:

# 开启 binlog
log-bin=mysql-bin
server-id=104
# 须要同步的数据库,如果不配置则同步全副数据库
binlog-do-db=test_db
# binlog 日志保留的天数,革除超过 10 天的日志
# 避免日志文件过大,导致磁盘空间有余
expire-logs-days=10 

配置实现后,重启 mysql:

service mysql restart

能够通过命令行 show master status\G; 查看以后 binlog 日志的信息(前面有用):

Slave 配置

Slave 配置绝对简略一点。从机必定也是一台 MySQL 服务器,所以和 Master 一样,找到 /etc/my.cnf 配置文件,减少以下配置:

# 不要和其余 mysql 服务 id 反复即可
server-id=106

接着应用命令行登录到 mysql 服务器:

mysql -u root -p

而后输出明码登录进去。

进入到 mysql 后,再输出以下命令:

CHANGE MASTER TO 
MASTER_HOST='192.168.0.104',// 主机 IP
MASTER_USER='root',// 之前创立的用户账号
MASTER_PASSWORD='Java@1234',// 之前创立的用户明码
MASTER_LOG_FILE='mysql-bin.000001',//master 主机的 binlog 日志名称
MASTER_LOG_POS=862,//binlog 日志偏移量
master_port=3306;// 端口

还没完,设置完之后须要启动:

# 启动 slave 服务
start slave;

启动完之后怎么校验是否启动胜利呢?应用以下命令:

show slave status\G;

能够看到如下信息(摘取局部要害信息):

*************************** 1. row ***************************
               Slave_IO_State: Waiting for master to send event
                  Master_Host: 192.168.0.104
                  Master_User: root
                  Master_Port: 3306
                Connect_Retry: 60
              Master_Log_File: mysql-bin.000001
          Read_Master_Log_Pos: 619
               Relay_Log_File: mysqld-relay-bin.000001
                Relay_Log_Pos: 782
        Relay_Master_Log_File: mysql-bin.000001 //binlog 日志文件名称
             Slave_IO_Running: Yes //Slave_IO 线程、SQL 线程都在运行
            Slave_SQL_Running: Yes
             Master_Server_Id: 104 //master 主机的服务 id
                  Master_UUID: 0ab6b3a6-e21d-11ea-aaa3-080027f8d623
             Master_Info_File: /var/lib/mysql/master.info
                    SQL_Delay: 0
          SQL_Remaining_Delay: NULL
      Slave_SQL_Running_State: Slave has read all relay log; waiting for the slave I/O thread to update it
           Master_Retry_Count: 86400
                Auto_Position: 0

另一台 slave 从机配置一样,不再赘述。

测试主从复制

在 master 主机执行 sql:

CREATE TABLE `tb_commodity_info` (`id` varchar(32) NOT NULL,
  `commodity_name` varchar(512) DEFAULT NULL COMMENT '商品名称',
  `commodity_price` varchar(36) DEFAULT '0' COMMENT '商品价格',
  `number` int(10) DEFAULT '0' COMMENT '商品数量',
  `description` varchar(2048) DEFAULT ''COMMENT' 商品形容 ',
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COMMENT='商品信息表';

接着咱们能够看到两台 slave 从机同步也创立了商品信息表:

主从复制就实现了!java 技术爱好者有点货色哦~

读写拆散

主从复制实现后,咱们还须要实现读写拆散,master 负责写入数据,两台 slave 负责读取数据。怎么实现呢?

实现的形式有很多,以前我公司是采纳 AOP 的形式,通过办法名判断,办法名中有 get、select、query 结尾的则连贯 slave,其余的则连贯 master 数据库。

然而通过 AOP 的形式实现起来代码有点繁琐,有没有什么现成的框架呢,答案是有的。

Apache ShardingSphere 是一套开源的分布式数据库中间件解决方案组成的生态圈,它由 JDBC、Proxy 两局部组成。

ShardingSphere-JDBC 定位为轻量级 Java 框架,在 Java 的 JDBC 层提供的额定服务。它应用客户端直连数据库,以 jar 包模式提供服务,无需额定部署和依赖,可了解为增强版的 JDBC 驱动,齐全兼容 JDBC 和各种 ORM 框架。

读写拆散就能够应用 ShardingSphere-JDBC 实现。

上面演示一下 SpringBoot+Mybatis+Mybatis-plus+druid+ShardingSphere-JDBC 代码实现。

我的项目配置

版本阐明:

SpringBoot:2.0.1.RELEASE
druid:1.1.22
mybatis-spring-boot-starter:1.3.2
mybatis-plus-boot-starter:3.0.7
sharding-jdbc-spring-boot-starter:4.1.1

增加 sharding-jdbc 的 maven 配置:

<dependency>
    <groupId>org.apache.shardingsphere</groupId>
    <artifactId>sharding-jdbc-spring-boot-starter</artifactId>
    <version>4.1.1</version>
</dependency>

而后在 application.yml 增加配置:

# 这是应用 druid 连接池的配置,其余的连接池配置可能有所不同
spring:
  shardingsphere:
    datasource:
      names: master,slave0,slave1
      master:
        type: com.alibaba.druid.pool.DruidDataSource
        driver-class-name: com.mysql.jdbc.Driver
        url: jdbc:mysql://192.168.0.108:3306/test_db?useUnicode=true&characterEncoding=utf8&tinyInt1isBit=false&useSSL=false&serverTimezone=GMT
        username: yehongzhi
        password: YHZ@1234
      slave0:
        type: com.alibaba.druid.pool.DruidDataSource
        driver-class-name: com.mysql.jdbc.Driver
        url: jdbc:mysql://192.168.0.109:3306/test_db?useUnicode=true&characterEncoding=utf8&tinyInt1isBit=false&useSSL=false&serverTimezone=GMT
        username: yehongzhi
        password: YHZ@1234
      slave1:
        type: com.alibaba.druid.pool.DruidDataSource
        driver-class-name: com.mysql.jdbc.Driver
        url: jdbc:mysql://192.168.0.110:3306/test_db?useUnicode=true&characterEncoding=utf8&tinyInt1isBit=false&useSSL=false&serverTimezone=GMT
        username: yehongzhi
        password: YHZ@1234
    props:
      sql.show: true
    masterslave:
      load-balance-algorithm-type: round_robin
    sharding:
      master-slave-rules:
        master:
          master-data-source-name: master
          slave-data-source-names: slave0,slave1

sharding.master-slave-rules 是表明主库和从库,肯定不要写错,否则写入数据到从库,就会导致无奈同步。

load-balance-algorithm-type 是路由策略,round_robin 示意轮询策略。

启动我的项目,能够看到以下信息,代表配置胜利:

编写 Controller 接口:

    /**
     * 增加商品
     *
     * @param commodityName  商品名称
     * @param commodityPrice 商品价格
     * @param description    商品价格
     * @param number         商品数量
     * @return boolean 是否增加胜利
     * @author java 技术爱好者
     */
    @PostMapping("/insert")
    public boolean insertCommodityInfo(@RequestParam(name = "commodityName") String commodityName,
                                       @RequestParam(name = "commodityPrice") String commodityPrice,
                                       @RequestParam(name = "description") String description,
                                       @RequestParam(name = "number") Integer number) throws Exception {return commodityInfoService.insertCommodityInfo(commodityName, commodityPrice, description, number);
    }

准备就绪,开始测试!

测试

关上 POSTMAN,增加商品:

控制台能够看到如下信息:

查问数据的话则通过 slave 进行:

就是这么简略!

毛病

只管主从复制、读写拆散能很大水平保障 MySQL 服务的高可用和进步整体性能,然而问题也不少:

  • 从机是通过 binlog 日志从 master 同步数据的,如果在网络提早的状况,从机就会呈现数据提早。那么就有可能呈现 master 写入数据后,slave 读取数据不肯定能马上读出来

可能有人会问,有没有事务问题呢?

实际上这个框架曾经想到了,咱们看回之前的那个截图,有一句话是这样的:

微信公众号已开启:【java 技术爱好者】,没关注的同学记得关注哦~

我是 java 技术爱好者,罗定的 java 精英,人称【罗 ja 英】

保持原创,继续输入兼具广度和深度的技术文章。

下面所有例子的代码都上传 Github 了:

https://github.com/yehongzhi/mall

正文完
 0