mysql主从同步(5)-同步延迟状态考量(seconds_behind_master和pt-heartbea)

本文涉及的产品
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
简介:

 

一般情况下,我们是通过"show slave status \G;"提供的Seconds_Behind_Master值来衡量mysql主从同步的延迟情况。具体说明见:mysql主从同步(4)-Slave延迟状态监控,这种方法在大多数情况下确实是可行的。但是经验告诉我,仅仅依靠Seconds_Behind_Master的值来监测主从同步数据是否延迟是绝对不可靠的!!!

曾经遇到过的一个坑:
Mysql主从环境部署后,刚开始主从数据同步是没问题的,也是通过监控Seconds_Behind_Master的值来判断同步是否延迟。但是运行一段时间后,突然有一天发现,主库上写入新数据后,从库并没有按时同步过来!!于是,立刻在从库上执行"show slave status \G;"发现Seconds_Behind_Master为0 ,并且Slave_IO_Running和Slave_SQL_Running线程状态都是YES也就是说从库到主库的连接还在,没有断开!但是主库上的变更数据就是长时间无法同步到从库上。如果没有人为干预,直到一个小时以后,从库才会自动重新连接主库,进而才继续同步主库的变更
发生这种情况时,通过一般的正常监控方式是不会发现从库有数据延迟。由此可见,仅仅通过Seconds_Behind_Master=0来判断同步是否延迟显然是不够滴.........

发现这个问题以后,我们人工干预的操作只是需要在从库上执行下面两步重新复制就能解决此问题:
mysql> stop slave; 
mysql> start slave;

重新执行复制后,要尽快修改slave_net_timeout这个参数

之所以要等1小时才能重新同步,是因为slave_net_timeout这个参数默认的就是3600s,它是设置在多少秒没收到主库传来的Binary Logs events之后,从库认为网络超时,Slave IO线程会重新连接主库。

1
2
3
4
5
6
7
mysql> show variables  like  'slave_net_timeout' ;
+ -------------------+-------+
| Variable_name     | Value |
+ -------------------+-------+
| slave_net_timeout | 3600  |
+ -------------------+-------+
1 row  in  set  (0.00 sec)

如果在部署mysql主从同步的时候,没有在从库这边设置好slave_net_timeout这个参数,遇到上面的情况,它就会按照默认的3600s(一小时)采取自动重新连接主库,然后才能继续同步主库的变更。这个参数不能设置太大,太大会造成数据库延迟或者主备库直接的链接异常不能及时发现但是设置太小又会造成主库没有数据更新时频繁重连。
至于slave_net_timeout这个参数究竟设置多少,要根据自己的mysql主库数据更新的频繁程度:主库数据更新频繁的,就将这个参数值设小点,更新不频繁就设大点。
一般这个参数设置5s、10s、15s、20s、30s等等。

设置方法:
直接登陆从库的mysql在线修改:

1
2
3
4
5
6
7
8
9
10
mysql>  set  global  slave_net_timeout = 5;
Query OK, 0  rows  affected, 1 warning (0.00 sec)
 
mysql> show variables  like  'slave_net_timeout' ;
+ -------------------+-------+
| Variable_name     | Value |
+ -------------------+-------+
| slave_net_timeout | 5     |
+ -------------------+-------+
1 row  in  set  (0.01 sec)

或者在从库的myc.nf里添加:
[root@slave-server ~]# cat /usr/local/mysql/my.cnf
....
[mysqld]
.....
slave_net_timeout = 5
[root@slave-server ~]# /etc/init.d/mysql restart

因此,将这个参数设置恰当后,遇到上面问题的时候,从库就会按照设定的时间去主动重新连接主库同步数据,就不需要人工干预。

当然,上述场景是非常特殊的,一般出现的概率比较小,但是作为运维人员,我们非常有必要搞清楚该怎么应对这种情况。这就需要我们要更加深入的吃透MySQL replication重试机制。

接下来基于mysql主从复制原理来分析这一现象
MySQL的Replication是区别其他数据库很关键的地方,也是可扩展性和高可用的基础。它本身已经非常智能化,只需要我们调用Change Master指定Binlog 文件名和偏移位置就可以搭建从主库到备库的复制关系。
MySQL复制线程会自动将目前复制位置记录下来,在主备复制中断的时候自动连上主库,并从上次中断的位置重新开始复制。这些操作都是全自动化的,不需要人为的干预。这给了我们运维人员带来了很多便利,同时也隐藏了很多细节。要真正的理解前面问题的真相以及怎么解决这个问题,我们还是需要真正的理解MySQL复制的原理。

1)Mysql主从复制的动作是“推”还是“拉”
MySQL的复制是“推”的,而不是“拉”的。
“拉”是指MySQL的备库不断的循环询问主库是否有数据更新,这种方式资源消耗多,并且效率低。
“推”是指MySQL的主库在自己有数据更新的时候推送这个变更给备库,这种方式只有在数据有变更的时候才会发生交互,资源消耗少。
显而易见,“推”的方式更加符合程序运行的节能原则。

那么MySQL具体是怎么“推”的列呢?
实际上备库在向主库申请数据变更记录的时候,需要指定从主库Binlog的哪个文件(MASTER_LOG_FILE)的具体多少个字节偏移位置(MASTER_LOG_POS)。对应的,主库会启动一个Binlog dump的线程,将变更的记录从这个位置开始一条一条的发给备库。备库一直监听主库过来的变更,接收到一条,才会在本地应用这个数据变更。

2)原因解析
从上面的分析,我们可以大致猜到为什么 show slave status 显示一切正常,但是实际上主库的变更都无法同步到备库上来:
出现问题的时候,Binlog dump程序被kill掉了。而备库作为监听的一方,它一直没有收到任何变更,它会认为主库上长时间没有任何变更,导致没有变更数据推送过来。
备库是无法判断主库上对应的Binlog dump线程到底是意外终止了,还是长时间没有任何数据变更的。所以,对这两种情况来说,备库都显示为正常。

所以该问题的关键在于:
主库Binlog dump线程kill的消息由于网络堵塞或者其他原因无法发送到备库,而备库却认为主库上的数据给有变更,因为双方数据产生了差异。
而备库只能在默认的3600s后主动地重新去连接主库,届时它才会发现主库的数据有变动了,才会自动同步过来,这是需要等待很长时间。

3)问题避免
基于上面的分析,可以知道MySQL在这种情况下确实无法避免,那么有哪些办法可以避开:
   1--被动处理:修改延迟的监控方法,发现问题及时处理。
   2--主动预防:正确设置--master-retry-count ,--master-connect-retry ,--slave-net-timeout 复制重试参数。

   1--被动处理
   MySQL的延迟监控大部分直接采集show slave status中的Seconds_Behind_Master 。
   那么像上面说的这种情况下, Seconds_Behind_Master就无法用来真实的衡量主备之间的复制延迟了。
   推荐使用Percona提供的监控方案(参考:mysql主从同步(3)-percona-toolkit工具(数据一致性监测、延迟监控)使用梳理

   2--主动预防
   除了手动在从库上stop slave和start slave重新执行复制后,还需要指定三个参数,用于复制线程重连主库,分别是
   master-retry-count:连接重试的次数。
   master-connect-retry:连接失败后等待的秒数
   slave-net-timeout:上面已介绍
   其中 master-connect-retry 和 master-retry-count 需要在 Change Master 搭建主备复制时指定,而 slave-net-timeout 是一个全局变量,可以在 MySQL 运行时在线设置。
   不过要注意的是:master-connect-retry和master-retry-count参数在Mysql5.6版本里就被去除了,所以Mysql5.6版本及更高版本就只设置slave-net-timeout参数即可。

  具体的重试策略为:
  备库过了slave-net-timeout秒还没有收到主库来的数据,它就会开始第一次重试。然后每过 master-connect-retry 秒,备库会再次尝试重连主库。直到重试了 master-retry-count 次,它才会放弃重试。如果重   试的过程中,连上了主库,那么它认为当前主库是好的,又会开始 slave-net-timeout 秒的等待。

  slave-net-timeout 的默认值是3600 秒, master-connect-retry默认为60秒, master-retry-count默认为86400次。
  也就是说,如果主库一个小时都没有任何数据变更发送过来,备库才会尝试重连主库。
  这就是为什么我遇到场景下,一个小时后,备库才会重连主库,继续同步数据变更的原因。
  这样的话,如果你的主库上变更比较频繁,可以考虑将slave-net-timeout设置的小一点,避免主库 Binlog dump 线程 终止了,无法将最新的更新推送过来。
  当然 slave-net-timeout 设置的过小也有问题,这样会导致如果主库的变更确实比较少的时候,备库频繁的重新连接主库,造成资源浪费。

***************当你发现自己的才华撑不起野心时,就请安静下来学习吧***************
分类:  Mysql
本文转自散尽浮华博客园博客,原文链接:http://www.cnblogs.com/kevingrace/p/6274073.html ,如需转载请自行联系原作者
相关实践学习
基于CentOS快速搭建LAMP环境
本教程介绍如何搭建LAMP环境,其中LAMP分别代表Linux、Apache、MySQL和PHP。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
23天前
|
关系型数据库 MySQL
elasticsearch对比mysql以及使用工具同步mysql数据全量增量
elasticsearch对比mysql以及使用工具同步mysql数据全量增量
20 0
|
30天前
|
SQL 存储 关系型数据库
MySQL的主从复制&主从同步
MySQL的主从复制&主从同步
28 0
|
1月前
|
关系型数据库 MySQL API
Flink CDC产品常见问题之mysql整库同步到starrock时任务挂掉如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
1月前
|
SQL DataWorks 关系型数据库
DataWorks常见问题之dataworks同步Rds任务失败如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
10天前
|
SQL 关系型数据库 MySQL
mysql主从同步出错解决办法
mysql主从同步出错解决办法
7 0
|
1月前
|
关系型数据库 MySQL API
Flink CDC产品常见问题之mysql整库同步到starrock时任务挂掉如何解决
Flink CDC产品常见问题之mysql整库同步到starrock时任务挂掉如何解决
|
1月前
|
分布式计算 DataWorks 关系型数据库
DataWorks报错问题之dataworks同步rds数据到maxcompute时报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
1月前
|
Oracle 关系型数据库 流计算
flink cdc 同步问题之报错org.apache.flink.util.SerializedThrowable:如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
11天前
|
关系型数据库 MySQL 数据库
mysql卸载、下载、安装(window版本)
mysql卸载、下载、安装(window版本)
|
30天前
|
关系型数据库 MySQL 数据库
rds安装数据库客户端工具
安装阿里云RDS的数据库客户端涉及在本地安装对应类型(如MySQL、PostgreSQL)的客户端工具。对于MySQL,可选择MySQL Command-Line Client或图形化工具如Navicat,安装后输入RDS实例的连接参数进行连接。对于PostgreSQL,可以使用`psql`命令行工具或图形化客户端如PgAdmin。首先从阿里云控制台获取连接信息,然后按照官方文档安装客户端,最后配置客户端连接以确保遵循安全指引。
82 1