本篇博客从Web集群中亟需解决的大容量存储问题引入,分析了几类常用的共享存储架构,重点解析了分布式存储系统的原理及配置实现;
===================================================================
1 共享存储的架构演变
2 分布式存储系统
2.1 基础知识
2.2 分类
2.3 CAP理论
2.4 协议
3 MogileFS
3.1 特性
3.2 架构
3.3 组成
3.4 服务安装及启动
3.5 配置部署
3.6 配置前端代理Nginx
3.7 访问验证
3.8 后续扩展
===================================================================
1 共享存储的架构演变
rsync+inotify:本地各保留一份完整数据,但通过rsync实时同步修改文件,双主模型哦
NFS:多节点挂载后性能下降严重;存在单点故障,且多个客户端并发修改同一个文件时可能出现不一致的情况;
SAN:存储区域网络,不适用于海量高并发的存储场景,且代价昂贵;可通过软件实现iSCSI存储网络;涉及GFS2/CLVM(LVM2)
MooseFS:分布式文件系统,适用于海量小文件存储;支持FUSE,可被挂载使用;
MogileFS:分布式存储系统,适用于海量小文件存储;不支持FUSE,只能通过API调用;
2 分布式存储系统
2.1 基础知识
定义:分布式存储系统是大量普通PC服务器通过Internet互联,对外作为一个整体提供存储服务
特性:
可扩展:分布式存储系统可以扩展到几百台至几千台的集群规模,且随着集群规模的增长,系统整体性能表现为线性增长;
低成本:分布式存储系统的自动容错、自动负载均衡机制使其可以构建在普通PC机之上;另外,线性扩展能力也使得增加、减少机器非常方便,可以实现自动运维;
高性能:无论是针对整个集群还是单台服务器,都要求分布式系统具备高性能;
易用:分布式存储系统需要能够提供易用的对外接口;另外,也要求具备完善的监控、运维工具,并能方便的与其他系统集成,如从Hadoop云计算系统导入数据;
挑战:在于数据、状态信息的持久化,要求在自动迁移、自动容错、并发读写的过程中保证数据的一致性;
2.2 分类
数据类型大致可分为非结构化数据(如文本、图片、视频等),结构化数据(一般存储在关系型数据库中),半结构化数据(如HTML文档);根据处理不同类型数据的需求,分布式存储系统可分为如下4类:
分布式文件系统:用于存储Blob对象,如图片、视频等,这类数据以对象的形式组织,对象之间没有关联;如GFS,MogileFS等;
分布式键值系统:用于存储关系简单的半结构化数据,它只提供基于主键的CRUD(Create/Read/Update/Delete)功能;如Memcache,Redis等;
分布式表格系统:用于存储关系较为复杂的半结构化数据,不仅支持简单的CRUD操作,还支持扫描某个主键范围;如Google Bigtable、Megastore;
分布式数据库:用于存储结构化数据,利用二维表格组织数据;如MySQL Sharding集群,Google Spanner等;
2.3 CAP理论
来自Berkerly的Eric Brewer教授提出了一个著名的CAP理论:一致性(Consistency),可用性(Availability)和分区容忍性(Tolerance of network Partition)三者不能同时满足:
C:读操作总是能读取到之前完成的写操作结果,满足这个条件的系统成为强一致系统,这里的“之前”一般对同一个客户端而言;
A:读写操作在单台机器发生故障的情况下依然能够正常执行,而不需要等待发生故障的机器重启或者其上的服务迁移到其他机器;
P:机器故障、网络故障、机房停电等异常情况下仍然能够满足一致性和可用性;
分布式存储系统要求能够自动容错,即分区可容忍性总是需要满足的,因此,一致性和写操作的可用性就不能同时满足了,需要在这二者间权衡,是选择不允许丢失数据,保持强一致,还是允许少量数据丢失以获得更好的可用性;
2.4 协议
分布式协议涉及的协议很多,例如租约,复制协议,一致性协议,其中以两阶段提交协议和Paxos协议最具有代表性;
两阶段提交协议(Two-phase Commit,2PC)用以保证跨多个节点操作的原子性,即跨多个节点的操作要么在所有节点上全部执行成功,要么全部失败;
两个阶段的执行过程如下:
阶段一:请求阶段(Prepare phase),在请求阶段,协调者通知事务参与者准备提交或者取消事务,然后进入表决过程;
阶段二:提交阶段(Commit phase);
Paxos协议用于确保多个节点对某个投票(例如哪个节点为主节点)达成一致;
3 MogileFS
3.1 特性
工作于应用层:无需特殊的核心组件;
无单点:三大组件(tracker,mogstore,database)皆可实现高可用;
自动文件复制:复制的最小单位不是文件,而是class;基于不同的class,文件可以被自动的复制到多个有足够存储空间的存储节点上;
传输中立,无特殊协议:可以通过NFS或HTTP协议进行通信;
简单的命名空间:文件通过一个给定的key来确定,是一个全局的命名空间;没有目录,基于域实现文件隔离;
不共享数据:无需通过昂贵的SAN来共享磁盘,每个存储节点只需维护自己所属的存储设备(device)即可;
3.2 架构
Tracker:MogileFS的核心,是一个调度器;服务进程为mogilefsd;可以做负载均衡调度;
主要职责有:
数据删除;
数据复制;
监控:故障后生成新的数据副本;
查询;
Database:Tracker访问Database,返回用户可用的Storage Node及文件的存放位置;
mogstored:数据存储的位置,通常是一个HTTP(WebDAV)服务器,用于数据的创建、删除、获取等;不可做负载均衡调度;
3.3 组成
MogileFS由3个部分组成:
server:主要包括mogilefsd和mogstored两个应用程序。
mogilefsd实现的是tracker,它通过数据库来保存元数据信息,包括站点domain、class、host等;
mogstored是存储节点(store node),它其实是个WebDAV服务,默认监听在7500端口,接受客户端的文件存储请求。
Utils(工具集):主要是MogileFS的一些管理工具,例如mogadm等;
在MogileFS安装完后,要运行mogadm工具将所有的store node注册到mogilefsd的数据库里,mogilefsd会对这些节点进行管理和监控;
客户端API:MogileFS的客户端API很多,例如Perl、PHP、Java、Python等,用这个模块可以编写客户端程序,实现文件的备份管理功能等;
3.4 服务安装及启动
基本架构(在LNMT架构的基础上改进)
服务器规划
服务安装及启动
数据库授权
1
2
3
4
5
6
7
8
9
10
|
MariaDB [(none)]> grant all on *.* to
'root'
@
'192.168.%.%'
identified by
'magedu'
;
Query OK, 0 rows affected (0.01 sec)
MariaDB [(none)]> grant all on mogdb.* to
'moguser'
@
'192.168.%.%'
identified by
'mogpass'
;
Query OK, 0 rows affected (0.02 sec)
MariaDB [(none)]> flush privileges;
Query OK, 0 rows affected (0.00 sec)
MariaDB [(none)]>
grant all on *.* to
'root'
@
'192.168.%.%'
identified by
'magedu'
;
grant all on mogdb.* to
'moguser'
@
'192.168.%.%'
identified by
'mogpass'
;
flush privileges;
|
主机192.168.0.45(mogilefs+mogilestored)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
|
# 所需程序包
[root@mysql mogilefs]
# ls
MogileFS-Server-2.46-2.el6.noarch.rpm perl-MogileFS-Client-1.14-1.el6.noarch.rpm
MogileFS-Server-mogilefsd-2.46-2.el6.noarch.rpm perl-Net-Netmask-1.9015-8.el6.noarch.rpm
MogileFS-Server-mogstored-2.46-2.el6.noarch.rpm perl-Perlbal-1.78-1.el6.noarch.rpm
MogileFS-Utils-2.19-1.el6.noarch.rpm
[root@mysql mogilefs]
# yum install -y *.rpm perl-IO-AIO
# 修改配置文件
[root@mysql mogdata]
# vi /etc/mogilefs/mogilefsd.conf # 调度器tracker的配置文件
# Enable daemon mode to work in background and use syslog
daemonize = 1
# Where to store the pid of the daemon (must be the same in the init script)
pidfile =
/var/run/mogilefsd/mogilefsd
.pid
# Database connection information
db_dsn = DBI:mysql:mogdb:host=192.168.0.45:3406
# 存储元数据的数据库信息,包括数据库mogdb及连接地址192.168.0.45:3406
db_user = moguser
# 数据库用户名
db_pass = mogpass
# 数据库登录密码
# IP:PORT to listen on for mogilefs client requests
listen = 192.168.0.45:7001
[root@mysql mogdata]
# vi /etc/mogilefs/mogstored.conf # 存储节点mogstored的配置文件
maxconns = 10000
# 最大连接数
httplisten = 0.0.0.0:7500
# http请求监听的地址和端口
mgmtlisten = 0.0.0.0:7501
docroot =
/var/mogdata
# 存储设备挂载目录,可修改
# 准备存储设备
[root@mysql mogdata]
# fdisk /dev/sda # 新建分区sda4,大小10G(实际生产环境中,此为整块磁盘,而非分区)
[root@mysql mogdata]
# kpartx -af /dev/sda
[root@mysql mogdata]
# partx -a /dev/sda
[root@mysql mogdata]
# cat /proc/partitions # 验证分区已创建成功
[root@mysql mogdata]
# mke2fs -t ext4 /dev/sda4 # 初始化分区
[root@mysql mogdata]
# mkdir /var/mogdata
[root@mysql mogdata]
# mount -t ext4 /dev/sda4 /var/mogdata/ # 挂载分区
[root@mysql mogdata]
# mkdir /var/mogdata/dev1 # 创建存储设备dev1(注:在192.168.0.46上,此为dev2)
[root@mysql mogdata]
# chown -R mogilefs.mogilefs /var/mogdata/
# 初始化数据库
[root@mysql mogdata]
# mogdbsetup --dbhost=192.168.0.45 --dbport=3406 --dbrootuser=root --dbrootpass=magedu --dbuser=moguser --dbpass=mogpass --dbname=mogdb --yes
# 初始化数据库执行一次即可,故在主机192.168.0.46上无需执行此步骤
# 启动服务
[root@mysql mogilefs]
# service mogilefsd start
Starting mogilefsd [ OK ]
[root@mysql mogilefs]
# service mogstored start
Starting mogstored [ OK ]
|
主机192.168.0.46(mogilefs+mogilestored)
同上,直至mogilefsd和mogstored服务都正常启动
3.5 配置部署(任意一个tracker节点上配置即可,如192.168.0.45)
添加节点
1
2
3
4
5
6
7
8
|
[root@mysql mogdata]
# echo "trackers = 192.168.0.45:7001" > /etc/mogilefs/mogilefs.conf # 管理程序mogadm的配置文件
[root@mysql mogdata]
# mogadm host add 192.168.0.45 --ip=192.168.0.45 --status=alive # 添加节点1
[root@mysql mogdata]
# mogadm host add 192.168.0.46 --ip=192.168.0.46 --status=alive # 添加节点2
[root@mysql mogilefs]
# mogadm host list # 查看已添加节点
192.168.0.45 [1]: alive
IP: 192.168.0.45:7500
192.168.0.46 [2]: alive
IP: 192.168.0.46:7500
|
添加设备
1
2
3
4
5
6
7
8
9
|
[root@mysql mogdata]
# mogadm device add 192.168.0.45 1 # 添加存储设备1,设备编号需与/var/mogdata目录下的dev1目录保持一致
[root@mysql mogdata]
# mogadm device add 192.168.0.46 2 # 添加存储设备2,设备编号需与/var/mogdata目录下的dev2目录保持一致
[root@mysql mogdata]
# mogadm device list # 查看已添加设备
192.168.0.45 [1]: alive
used(G)
free
(G) total(G) weight(%)
dev1: alive 0.146 9.200 9.347 100
192.168.0.46 [2]: alive
used(G)
free
(G) total(G) weight(%)
dev2: alive 0.146 9.199 9.346 100
|
添加domain(域)
1
2
3
4
5
6
7
|
[root@mysql mogdata]
# mogadm domain add images
[root@mysql mogdata]
# mogadm domain add text
[root@mysql mogdata]
# mogadm domain list
domain class mindevcount replpolicy hashtype
-------------------- -------------------- ------------- ------------ -------
images default 2 MultipleHosts() NONE
text default 2 MultipleHosts() NONE
|
添加class(文件类别)
1
2
3
4
5
6
7
8
9
10
11
12
13
|
[root@mysql mogdata]
# mogadm class add images class1 --mindevcount=2 # 在域images中添加类别class1和class2,最小文件复制份数为2
[root@mysql mogdata]
# mogadm class add images class2 --mindevcount=2
[root@mysql mogdata]
# mogadm class add text class1 --mindevcount=2 # 在域text中添加类别class1和class2,最小文件复制份数为2
[root@mysql mogdata]
# mogadm class add text class2 --mindevcount=2
[root@mysql mogdata]
# mogadm class list
domain class mindevcount replpolicy hashtype
-------------------- -------------------- ------------- ------------ -------
images class1 2 MultipleHosts() NONE
images class2 2 MultipleHosts() NONE
images default 2 MultipleHosts() NONE
text class1 2 MultipleHosts() NONE
text class2 2 MultipleHosts() NONE
text default 2 MultipleHosts() NONE
|
3.6 配置前端代理Nginx
重新编译安装nginx,添加nginx-mogilefs-module-master模块
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
|
[root@nginx1
tar
]
# cd /home/software/src/nginx-1.4.7/
[root@nginx1 nginx-1.4.7]
# ./configure \
> --prefix=
/usr
\
> --sbin-path=
/usr/sbin/nginx
\
> --conf-path=
/etc/nginx/nginx
.conf \
> --error-log-path=
/var/log/nginx/error
.log \
> --http-log-path=
/var/log/nginx/access
.log \
> --pid-path=
/var/run/nginx/nginx
.pid \
> --lock-path=
/var/lock/nginx
.lock \
> --user=nginx \
> --group=nginx \
> --with-http_ssl_module \
> --with-http_flv_module \
> --with-http_stub_status_module \
> --with-http_gzip_static_module \
> --http-client-body-temp-path=
/var/tmp/nginx/client/
\
> --http-proxy-temp-path=
/var/tmp/nginx/proxy/
\
> --http-fastcgi-temp-path=
/var/tmp/nginx/fcgi/
\
> --http-uwsgi-temp-path=
/var/tmp/nginx/uwsgi
\
> --http-scgi-temp-path=
/var/tmp/nginx/scgi
\
> --with-pcre \
> --with-debug \
> --add-module=
/home/software/tar/nginx-mogilefs-module-master
[root@nginx1 nginx-1.4.7]
# make && make install
|
配置Nginx,将静态文件和图片的访问都转发至后端MogileFS即可
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
|
[root@nginx1 nginx]
# cat /etc/nginx/nginx.conf
worker_processes 2;
error_log
/var/log/nginx/nginx
.error.log;
pid
/var/run/nginx
.pid;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application
/octet-stream
;
log_format main
'$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"'
;
sendfile on;
keepalive_timeout 65;
fastcgi_cache_path
/www/cache
levels=1:2 keys_zone=fcgicache:10m inactive=5m;
upstream mogfs_cluster {
# 定义后端mogilefs集群
server 192.168.0.45:7001;
server 192.168.0.46:7001;
}
server {
listen 4040;
server_name xxrenzhe.lnmmp.com;
access_log
/var/log/nginx/nginx-img
.access.log main;
root
/www/lnmmp
.com;
valid_referers none blocked xxrenzhe.lnmmp.com *.lnmmp.com;
if
($invalid_referer) {
rewrite ^/ http:
//xxrenzhe
.lnmmp.com
/404
.html
}
location ~* ^(
/images/
.*)$ {
# 图片访问直接转发至后端mogilefs集群
mogilefs_tracker mogfs_cluster;
mogilefs_domain images;
# 指定images域
mogilefs_noverify on;
mogilefs_pass $1 {
# 传输访问的全路径(/images/.*)
proxy_pass $mogilefs_path;
proxy_hide_header Content=Type;
proxy_buffering off;
}
}
}
server {
listen 80;
server_name xxrenzhe.lnmmp.com;
access_log
/var/log/nginx/nginx-static
.access.log main;
location / {
root
/www/lnmmp
.com;
index index.php index.html index.htm;
}
location ~* ^(
/text/
.*)$ {
# 文本访问直接转发至后端mogilefs集群
mogilefs_tracker mogfs_cluster;
mogilefs_domain text;
# 指定text域
mogilefs_noverify on;
mogilefs_pass $1 {
# 传输访问的全路径(/text/.*)
proxy_pass $mogilefs_path;
proxy_hide_header Content=Type;
proxy_buffering off;
}
}
gzip
on;
gzip_comp_level 6;
gzip_buffers 16 8k;
gzip_http_version 1.1;
gzip_types text
/plain
text
/css
application
/x-javascript
text
/xml
application
/xml
;
gzip_disable msie6;
}
server {
listen 8080;
server_name xxrenzhe.lnmmp.com;
access_log
/var/log/nginx/nginx-php
.access.log main;
location / {
root
/www/lnmmp
.com;
index index.php index.html index.htm;
}
error_page 404
/404
.html;
error_page 500 502 503 504
/50x
.html;
location =
/50x
.html {
root
/www/lnmmp
.com;
}
location ~ \.php$ {
root
/www/lnmmp
.com;
fastcgi_pass 127.0.0.1:9000;
fastcgi_cache fcgicache;
fastcgi_cache_valid 200 302 1h;
fastcgi_cache_valid 301 1d;
fastcgi_cache_valid any 1m;
fastcgi_cache_min_uses 1;
fastcgi_cache_key $request_method:
//
$host$request_uri;
fastcgi_cache_use_stale error timeout invalid_header http_500;
fastcgi_index index.php;
fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
include fastcgi_params;
}
}
}
|
启动nginx服务
1
2
|
[root@nginx1 nginx]
# service nginx start
Starting nginx: [ OK ]
|
3.7 访问验证
上传文件测试分布式文件系统MogileFS的功能
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
|
[root@mysql mogdata]
# mogupload --domain=images --key='/images/fish.jpg' --file="/images/fish.jpg" # 上传图片文件,选择images域
[root@mysql mogdata]
# mogupload --domain=text --key='/text/index.html' --file="/text/index.html" # 上传文本文件,选择text域
[root@mysql mogdata]
# moglistkeys --domain=images # 列出已添加的key
/images/fish
.jpg
[root@mysql mogdata]
# moglistkeys --domain=text
/text/index
.html
[root@mysql mogdata]
# mogfileinfo --domain=images --key='/images/fish.jpg' # 查看已添加文件的具体信息,包括实际可访问地址
-
file
:
/images/fish
.jpg
class: default
devcount: 2
domain: images
fid: 9
key:
/images/fish
.jpg
length: 3225
- http:
//192
.168.0.45:7500
/dev1/0/000/000/0000000009
.fid
- http:
//192
.168.0.46:7500
/dev2/0/000/000/0000000009
.fid
[root@mysql mogdata]
# mogfileinfo --domain=text --key='/text/index.html'
-
file
:
/text/index
.html
class: default
devcount: 2
domain: text
fid: 8
key:
/text/index
.html
length: 15
- http:
//192
.168.0.46:7500
/dev2/0/000/000/0000000008
.fid
- http:
//192
.168.0.45:7500
/dev1/0/000/000/0000000008
.fid
|
说明:直接访问mogilefs提供的文件存储路径,访问正常;
结合Nginx,从前端访问测试
说明:通过前端Nginx访问图片和文本文件一切正常,实现了对前端访问的透明性;
3.8 后续扩展
结合LNMT的架构,再通过Haproxy进行前端调度,就可以使用MogileFS这个分布式存储系统完全替代NFS,实现对图片文件和文本文件的存储和读写;
鉴于MogileFS的无目录性,无法直接挂载使用,故向mogilefs集群中添加文件则需要程序通过API调用上传(upload)文件,虽然对于运维人员有点不方便,但也保证了一定的高效性;
如果想体验直接挂载使用分布式文件系统的乐趣,则可以尝试使用MooseFS,在此就不多说了!