Redis Cluster的实现和管理

  1. 云栖社区>
  2. 博客>
  3. 正文

Redis Cluster的实现和管理

余二五 2017-11-15 20:17:00 浏览536
展开阅读全文

Redis Clusterredis3.0版本以上开始支持,以ruby环境运行。他可以把多个redis实例整合在一起,形成一个集群,集群内分配slot(分片槽),实现数据的分片存放。客户端只要以集群的模式连接上集群内任意一个节点,就可以操作整个集群。

集群角色有MasterSlaveMaster之间分配slots,一共16384slotSlave向它指定的Master同步数据,实现备份。当其中的一个Master无法提供服务时,该MasterSlave讲提升为Master,保证集群间slot的完整性。一旦其中的某一个Master和它的Slave都失效,导致了slot不完整,集群失效。

 

环境准备:

Redis节点:

          192.168.189.144:9000

          192.168.189.144:9001

          192.168.189.145:8000

          192.168.189.145:8001

          192.168.189.146:7000

          192.168.189.146:7001

 

  在上述节点安装3.0以上的redis版本,安装完成后有redis-trib.rb文件,这个文件用于操作管理reids cluster

wKioL1XdMv_wSPa0AAGO-DqSHJU271.jpg 

选择192.168.189.144Cluster操作机器,安装ruby环境,ruby环境要在1.8.5以上。

1
2
3
#rpm  -ivh  http://yum.puppetlabs.com/el/5/products/x86_64/puppetlabs-release-5-6.noarch.rpm
#yum install ruby.x86_64 ruby-devel.x86_64 rubygems.noarch 
#gem install redis    ---安装ruby的redis接口

 

集群配置:

开启每个redisredis cluster功能,配置如下,根据实例分配端口:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
#grep -v ^# redis.conf  | grep -v ^$
daemonize yes
pidfile /usr/local/redis_cluster/9000/var/redis.pid
port 9000
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile "/usr/local/redis_cluster/9000/redis.log"
databases 16
stop-writes-on-bgsave-error yes
rdbcompression yes
rdbchecksum yes
dbfilename dump.rdb
dir /usr/local/redis_cluster/9000/data
slave-serve-stale-data yes
slave-read-only yes
repl-diskless-sync no
repl-diskless-sync-delay 5
repl-disable-tcp-nodelay no
slave-priority 100
appendonly no
appendfilename "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
aof-load-truncated yes
lua-time-limit 5000
cluster-enabled yes       -----开启cluster
cluster-config-file nodes.conf
cluster-node-timeout 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
latency-monitor-threshold 0
notify-keyspace-events ""
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set-max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
hll-sparse-max-bytes 3000
activerehashing yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync yes

启动所有的redis节点:

      192.168.189.144:

1
2
#/usr/local/redis_cluster/9000/bin/redis-server /usr/local/redis_cluster/9000/etc/redis.conf 
#/usr/local/redis_cluster/9001/bin/redis-server /usr/local/redis_cluster/9001/etc/redis.conf

    192.168.189.145:

1
2
#/usr/local/redis_cluster/8000/bin/redis-server /usr/local/redis_cluster/8000/etc/redis.conf 
#/usr/local/redis_cluster/8001/bin/redis-server /usr/local/redis_cluster/8001/etc/redis.conf

    192.168.189.146:

1
2
#/usr/local/redis_cluster/7000/bin/redis-server /usr/local/redis_cluster/7000/etc/redis.conf 
#/usr/local/redis_cluster/7001/bin/redis-server /usr/local/redis_cluster/7001/etc/redis.conf

启动完所有节点后,查看日志,显示如下:

wKiom1XdMQvRXoLBAADqJ4Kfgag589.jpg

找不到集群配置,这是因为还没有初始化集群。

192.168.189.144上使用redis-trib.rb工具,创建集群:

1
#bin/redis-trib.rb create --replicas 1 192.168.189.144:9000 192.168.189.145:8000 192.168.189.146:7000 192.168.189.144:9001 192.168.189.145:8001 192.168.189.146:7001

(--replicas 1为每个Master指定了1SlaveMasterSlave的角色,由输入的顺序决定)

wKioL1XdMzyzGwd_AAiLJUQ725E108.jpg

   从以上创建信息可以看到,集群自动分配出了Master和各自的Slave,并在Master之间分配了slot。集群就创建成功了。

查看集群信息(随意指定集群中的一个节点)

1
#bin/redis-trib.rb check 192.168.189.144:9000

wKiom1XdMTrRhaO-AATbD8CvpCI735.jpg 

1
#bin/redis-cli  -c -h 192.168.189.144 -p 9000 cluster nodes

wKioL1XdM2OT6yvXAAL2hwFnRiI979.jpg

以上方法都可以看到集群的状态和各节点的信息。

 

Cluster测试:

以集群的模式,使用redis客户端连上一个Master节点,插入一些数据:

wKioL1XdM4fR8_tqAAGxO3u4veM411.jpg 

可以看到,插入数据时,数据会自动插入到不同Master节点上的slot。说明实现了分片的目的,形成了集群。

这时可以连接到集群中的另一个结点去查看之前插入的数据:

wKiom1XdMYDwE1LQAAEN9vVmSIg347.jpg 

可以发现集群会自动定位到key值的位置,并跳到该redis实例去取到需要的数据。

 

节点的增减:

192.168.189.144新增两个60006001的空实例。新增6000为集群的新的Master60016000slave

启动新增实例:

1
2
#/usr/local/redis_cluster/6000/bin/redis-server /usr/local/redis_cluster/6000/etc/redis.conf 
#/usr/local/redis_cluster/6001/bin/redis-server /usr/local/redis_cluster/6001/etc/redis.conf

添加6000Master节点:

1
#bin/redis-trib.rb add-node 192.168.189.144:6000 192.168.189.144:9000   (前面为新增的节点,后面为集群里已有的随意节点)

wKiom1XdMZuBjbkyAAWQ_80ZNf0531.jpg

wKioL1XdM7KjkPl5AAGbmtc79ss284.jpg

  使用check命令查看集群状态,可以看到192.168.189.144:6000已经加入集群,角色为Master,没有分配slot,所以没有数据。

所以,需要给144:6000分配slot,使它能够存放数据。

1
#bin/redis-trib.rb reshard 192.168.189.144:6000

wKiom1XdMb7j9It3AAEWFcE-6hg598.jpg 

这里为新的节点分配了1000slot。此命令可也可用于在线reshard

wKiom1XdMdDD3avZAACbONuryZk232.jpg 

在查看144:6000的信息,就可以看到它已有的slot了,因为试验中我选择了all当作source node,所以slot是从其他的各个Master分配过来的。一共分配了1000个。

 

144:6000新增slave节点:

首先,先把144:6001节点加入集群:

1
#bin/redis-trib.rb add-node 192.168.189.144:6001 192.168.189.144:9000

wKioL1XdNBzRd5U3AACbONuryZk619.jpg 

看到新增的节点,默认的角色都是Master,若想改变它的角色,需连接到该实例,为它指定Master

wKioL1XdNEXwmMs6AACW-2UM1-o427.jpg

(后面加上的为144:6000node ID 

wKiom1XdMk_AKICfAABdPt_cZ3o831.jpg

wKioL1XdNJGzpqgGAACbQIE3zHk721.jpg

可以看到144:6001已经变成144:6000Slave


删除Slave节点:

1
#bin/redis-trib.rb del-node 192.168.189.144:6001 '39dba7707191d350dab2ef3c47e21e21d3eaf13c'

wKiom1XdMomzqNasAAHb3Acx5Jg765.jpg 

slave节点,144:6001删除完成。


删除Master节点:

1
#bin/redis-trib.rb del-node 192.168.189.144:6000 '53f3ff88141bde0fcf1bb1d9cf044ea79b423f7d'

wKiom1XdMpawYBNpAAGn8hmE0V4837.jpg

删除144:6000节点时,发现删除失败,提示说该实例不是空的。因为144:6000上还分配有slot,若删除,会导致集群slot的不完整,所以需先移除该节点上的所有slot,才能进行删除。

wKioL1XdNLmju34lAAFu0BdzSJw622.jpg

reshard命令移除slot到另一个Master节点。

wKioL1XdNMSzwvzdAAGUlMo3z2E789.jpg

这时再执行删除,删除成功。

 

集群冗余测试:

Redis Cluster的正常状态前提是slot的完整,换句话说,只要集群的slot是完整的16384,则集群就能正常工作。


关闭一个Master

1
#bin/redis-cli -h 192.168.189.146 -p 7000 shutdown

查看集群状态:

wKioL1XdNNPCMLM_AAODWktRnAw638.jpg 

可以看到146:7000节点已经下线,它的Slave145:8001提升为Master,集群正常工作,因为slot还保持完整。


关闭145:8001:

1
#bin/redis-cli -h 192.168.189.145 -p 8001 shutdown

wKiom1XdMsfznlQkAAPC1dJkJBs244.jpg 

可以看到145:8001已经无法连接,且它已经没有备份了。这时集群的slot发生了不完整的情况,集群失效。

wKioL1XdNOqR7tNXAACFdENHcjQ588.jpg 

   这时再尝试往集群里写数据,提示说cluster is down,即集群失效了。











本文转自 icenycmh 51CTO博客,原文链接:http://blog.51cto.com/icenycmh/1688407,如需转载请自行联系原作者

网友评论

登录后评论
0/500
评论
余二五
+ 关注