结合keepalived实现redis群集高可用故障自动切换

本文涉及的产品
云数据库 Redis 版,社区版 2GB
推荐场景:
搭建游戏排行榜
简介:

   系统架构图:

wKioL1NYeY7CE3KNAAGRzA16SNA956.jpg


我们所要实现的目的很简单,

104,107 为keepalive和redis主从架构,其余服务器比如105、106均为redis从库并且挂在vip 192.168.56.180下面。

主keepalive负责主要日常工作,从keepalive担任备机角色,一旦主keepalive挂掉,从keepalive服务器立即使从redis转变角色切换成master状态开始接管任务提供服务,实现业务的无缝切换,当挂掉的服务器修好上线后继续担任主的角色,从库会自动切换到slave状态并且不影响挂载在vip下的从redis的数据同步,一满足高并发架构的需求。


keepalive在ubuntu的安装很简单

1
2
3
4
apt-get  install  libssl-dev
apt-get  install  openssl
apt-get  install  libpopt-dev
apt-get  install  keepalived

redis的安装也很简单:

网上很多方法,也可参考我的另一篇文章: redis的shell安装脚本,实现在linux下本机主从架构

网上有一篇郭冬的一篇文章给了我很大启发故拿来参考:通过Keepalived实现Redis Failover自动故障切换

下面我们看192.168.56.104主keepalived的配置

/etc/keepalived/keepalived.conf


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
global_defs {
         notification_email {
                 409011500@qq.com
         }
         notification_email_from  409011500@qq.com
                 smtp_server 127.0.0.1  (如果本机配置的话)
                 smtp_connect_timeout 30
                 router_id redis-ha
}
vrrp_script chk_redis {
                 script  "/home/lhb/sh/redis_check.sh"    ###监控脚本
                 interval 2                                         ###监控时间
}
vrrp_instance VI_1 {
         state MASTER                             ###设置为MASTER
         interface eth0                           ###监控网卡
         virtual_router_id 52
         priority 101                             ###权重值
         authentication {
                      auth_type PASS              ###加密
                      auth_pass redis             ###密码
         }
         track_script {
                 chk_redis                        ###执行上面定义的chk_redis
         }
         virtual_ipaddress {
              192.168.56.180                         ###VIP
         }
         notify_master  /home/lhb/sh/redis_master .sh
         notify_backup  /home/lhb/sh/redis_backup .sh
}

/home/lhb/sh/redis_master.sh

1
2
3
4
5
6
7
8
9
10
11
#!/bin/bash
REDISCLI= "/usr/local/redis/bin/redis-cli"
LOGFILE= "/usr/local/redis/log/keepalived-redis-state.log"
echo  "[master]"  >> $LOGFILE
date  >> $LOGFILE
echo  "Being master...."  >> $LOGFILE 2>&1
echo  "Run SLAVEOF cmd ..."  >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.107 6379 >> $LOGFILE  2>&1
sleep  10  #延迟10秒以后待数据同步完成后再取消同步状态
echo  "Run SLAVEOF NO ONE cmd ..."  >> $LOGFILE
$REDISCLI SLAVEOF NO ONE >> $LOGFILE 2>&1


/home/lhb/sh/redis_backup.sh

1
2
3
4
5
6
7
8
9
#!/bin/bash
REDISCLI= "/usr/local/redis/bin/redis-cli"
LOGFILE= "/usr/local/redis/log/keepalived-redis-state.log"
echo  "[backup]"  >> $LOGFILE
date  >> $LOGFILE
echo  "Being slave...."  >> $LOGFILE 2>&1
sleep  15  #延迟15秒待数据被对方同步完成之后再切换主从角色
echo  "Run SLAVEOF cmd ..."  >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.107 6379 >> $LOGFILE  2>&1


/usr/local/redis/etc/redis.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
daemonize  yes
pidfile  /var/run/redis .pid
port 6379
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile  "/usr/local/redis/log/redis.log"
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error  yes
rdbcompression  yes
rdbchecksum  yes
dbfilename dump.rdb
dir  /usr/local/redis/data
slave-serve-stale-data  yes
slave- read -only no
repl-disable-tcp-nodelay no
slave-priority 100
appendonly  yes
appendfilename  "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
lua- time -limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events  ""
hash -max-ziplist-entries 512
hash -max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set -max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing  yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync  yes


192.168.56.107从keepalived的配置

/etc/keepalived/keepalived.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
global_defs {
         notification_email {
                 409011500@qq.com
         }
         notification_email_from 409011500@qq.com
                 smtp_server 127.0.0.1
                 smtp_connect_timeout 30
                 router_id redis-ha
}
vrrp_script chk_redis {
                 script  "/home/lhb/sh/redis_check.sh"    ###监控脚本
                 interval 2                                         ###监控时间
}
vrrp_instance VI_1 {
         state BACKUP                                 ###设置为BACKUP
         interface eth0                               ###监控网卡
         virtual_router_id 52
         priority 100                                 ###比MASTRE权重值低
         authentication {
                      auth_type PASS
                      auth_pass redis                 ###密码与MASTRE相同
         }
         track_script {
                 chk_redis                        ###执行上面定义的chk_redis
         }
         virtual_ipaddress {
              192.168.56.180                          ###VIP
         }
         notify_master  /home/lhb/sh/redis_master .sh
         notify_backup  /home/lhb/sh/redis_backup .sh
}


/home/lhb/sh/redis_master.sh

1
2
3
4
5
6
7
8
9
10
11
#!/bin/bash
REDISCLI= "/usr/local/redis/bin/redis-cli"
LOGFILE= "/usr/local/redis/log/keepalived-redis-state.log"
echo  "[master]"  >> $LOGFILE
date  >> $LOGFILE
echo  "Being master...."  >> $LOGFILE 2>&1
echo  "Run SLAVEOF cmd ..."  >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.104 6379 >> $LOGFILE  2>&1
sleep  10  #延迟10秒以后待数据同步完成后再取消同步状态
echo  "Run SLAVEOF NO ONE cmd ..."  >> $LOGFILE
$REDISCLI SLAVEOF NO ONE >> $LOGFILE 2>&1


/home/lhb/sh/redis_backup.sh

1
2
3
4
5
6
7
8
9
#!/bin/bash
REDISCLI= "/usr/local/redis/bin/redis-cli"
LOGFILE= "/usr/local/redis/log/keepalived-redis-state.log"
echo  "[backup]"  >> $LOGFILE
date  >> $LOGFILE
echo  "Being slave...."  >> $LOGFILE 2>&1
sleep  15  #延迟15秒待数据被对方同步完成之后再切换主从角色
echo  "Run SLAVEOF cmd ..."  >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.104 6379 >> $LOGFILE  2>&1


/home/lhb/sh/redis_check.sh

1
2
3
4
5
6
7
8
9
#!/bin/bash
ALIVE=` /usr/local/redis/bin/redis-cli  PING`
if  "$ALIVE"  ==  "PONG"  ];  then
   echo  $ALIVE
   exit  0
else
   echo  $ALIVE
   exit  1
fi


/usr/local/redis/etc/redis_slave.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
daemonize  yes
pidfile  /var/run/redis_salve .pid
port 6379
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile  "/usr/local/redis/log/redis_slave.log"
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error  yes
rdbcompression  yes
rdbchecksum  yes
dbfilename dump_salve.rdb
dir  /usr/local/redis/data
slave-serve-stale-data  yes
slave- read -only no
repl-disable-tcp-nodelay no
slave-priority 100
appendonly  yes
appendfilename  "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
lua- time -limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events  ""
hash -max-ziplist-entries 512
hash -max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set -max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing  yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync  yes
SLAVEOF 192.168.56.104 6379


192.168.56.105、192.168.56.106 redis配置文件相同:

/usr/local/redis/etc/redis_salve.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
daemonize  yes
pidfile  /var/run/redis_salve .pid
port 6379
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile  "/usr/local/redis/log/redis_slave.log"
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error  yes
rdbcompression  yes
rdbchecksum  yes
dbfilename dump_salve.rdb
dir  /usr/local/redis/data
slave-serve-stale-data  yes
slave- read -only no
repl-disable-tcp-nodelay no
slave-priority 100
appendonly no
appendfilename  "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
lua- time -limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events  ""
hash -max-ziplist-entries 512
hash -max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set -max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing  yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync  yes
SLAVEOF 192.168.56.180 6379


好了,下面我们就来展示一下是否是我们期待的那样?


启动192.168.56.104,192.168.56.107上的redis,keepalvied,以及192.168.56.105,192.168.56.106上的redis

在192.168.56.104 我们看到以下结果,已经获取vip:192.168.56.180

wKiom1NYiejyYscZAAJldQVu4Ss388.jpg


wKiom1NYinnxIpddAAFCuP5SdOw780.jpg


在192.168.56.107 我们看到以下结果,并没有获得vip192.168.56.180

wKioL1NYi1zBOgf1AAKBRQPf020589.jpg


wKiom1NYi4biZ_S3AAF73oQ0smY062.jpg


在192.168.56.105,192.168.56.106我们看到相同结果redis挂载在vip:192.168.56.180下

wKiom1NYjBuzgpjdAAEyqSBY5RY919.jpg


这时我们把192.168.56.104下的redis给关闭掉,看一下结果:vip已经释放

wKioL1NYjPXQ4BV_AAMw36SD3cA511.jpg

然后到192.168.56.107下看一下信息: 已经获取vip,并且redis已经从salve切换到master,并且从库105、106状态均为online

wKiom1NYjeDguOWsAAJWPJYKPGI184.jpg

wKioL1NYjbbxEHjuAAFUpLSSi1g578.jpg


192.168.56.105、192.168.56.106 redis结果:一直挂载在vip下面并且link_status处于up状态

wKiom1NYlL3DwQmnAAEXRmwk9Vc332.jpg

由此可见,当主redis挂掉后,备机上的redis立即切换为master,并且不影响业务正常运行。


我们然后把主上redis从新启动,看到下面结果: 主服务器获取vip

wKioL1NYlefRP8S_AAQN0ZwQ7F8168.jpg

redis信息:我们可以看到192.168.56.107备机已经出现在master的slave列表中

wKioL1NYlkaj5aC2AAFGW2SCmkA345.jpg

然后切换到:192.168.56.107看一下信息: 已经释放vip,并且redis已经从master切换到slave状态,并且指向的master是192.168.56.104

wKiom1NYlw2SQ3b_AAIcAEkp6cU174.jpg


wKioL1NYluSyuVL6AAFzkvp_rMo237.jpg


在看192.168.56.105、192.168.56.106 redis信息,亦然指向192.168.56.180

wKiom1NYl6ywM19YAAEZ8YuEbtI608.jpg


看到这里,已经满足我们系统架构最初的所有设想功能。有感兴趣的同学可以一起交流。谢谢



本文转自birdinroom 51CTO博客,原文链接:http://blog.51cto.com/birdinroom/1401663,如需转载请自行联系原作者
相关实践学习
基于Redis实现在线游戏积分排行榜
本场景将介绍如何基于Redis数据库实现在线游戏中的游戏玩家积分排行榜功能。
云数据库 Redis 版使用教程
云数据库Redis版是兼容Redis协议标准的、提供持久化的内存数据库服务,基于高可靠双机热备架构及可无缝扩展的集群架构,满足高读写性能场景及容量需弹性变配的业务需求。 产品详情:https://www.aliyun.com/product/kvstore     ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
3月前
|
NoSQL 关系型数据库 MySQL
Redis高可用之主从复制架构(第一部分)
Redis高可用之主从复制架构(第一部分)
|
3月前
|
存储 监控 NoSQL
Redis 高可用之主从模式
上一节RDB和AOF持久化机制提到了 Redis 的持久性,也就是在服务器实例宕机或故障时,拥有再恢复的能力。但是在这个服务器实例宕机恢复期间,是无法接受新的数据请求。对于整体服务而言这是无法容忍的,因此我们可以使用多个服务器实例,在一个实例宕机中断时,另外的服务器实例可以继续对外提供服务,从而不中断业务。Redis 是如何做的呢?Redis 做法是**增加冗余副本**,**将一份数据同时保存在多个实例**上。那么如何保存各个实例之间的数据一致性呢?
46 0
Redis 高可用之主从模式
|
3月前
|
机器学习/深度学习 NoSQL Redis
Redis高可用之集群架构(第三部分)
Redis高可用之集群架构(第三部分)
|
3月前
|
消息中间件 NoSQL Redis
Redis高可用之哨兵模式(第二部分)
Redis高可用之哨兵模式(第二部分)
|
28天前
|
缓存 运维 NoSQL
【Redis故障排查】「连接失败问题排查和解决」带你总体分析和整理Redis的问题故障实战开发指南及方案
【Redis故障排查】「连接失败问题排查和解决」带你总体分析和整理Redis的问题故障实战开发指南及方案
470 0
|
3月前
|
存储 监控 NoSQL
|
2月前
|
存储 NoSQL Java
面试官:Redis如何保证高可用?
面试官:Redis如何保证高可用?
76 2
面试官:Redis如何保证高可用?
|
3月前
|
监控 NoSQL 程序员
Redis 高可用篇:你管这叫 Sentinel 哨兵集群原理
Redis 高可用篇:你管这叫 Sentinel 哨兵集群原理
77 5
|
3月前
|
存储 负载均衡 NoSQL
Redis 高可用篇:你管这叫主从架构数据同步原理?
Redis 高可用篇:你管这叫主从架构数据同步原理?
241 5
|
3月前
|
NoSQL Redis Ruby
redis高可用集群搭建
redis高可用集群搭建

热门文章

最新文章