Qunar 高速发展下数据库的创新与发展

本文涉及的产品
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
简介: Qunar 高速发展下数据库的创新与发展http://www.bieryun.com/3402.html 本篇文章主要介绍 TiDB 在去哪儿的调研和实践。 1、分布式数据库诞生背景 随着互联网的飞速发展,业务量可能在短短的时间内爆发式地增长,对应的数据量可能快速地从几百 GB 涨到几百个 TB,传统的单机数据库提供的服务,在系统的可扩展性、性价比方面已经不再适用。

Qunar 高速发展下数据库的创新与发展

本篇文章主要介绍 TiDB 在去哪儿的调研和实践。

1、分布式数据库诞生背景

随着互联网的飞速发展,业务量可能在短短的时间内爆发式地增长,对应的数据量可能快速地从几百 GB 涨到几百个 TB,传统的单机数据库提供的服务,在系统的可扩展性、性价比方面已经不再适用。随着业界相关分布式数据库论文的发布,分布式数据库应运而生,可以预见分布式数据库必将成为海量数据处理技术发展的又一个核心。

目前业界最流行的分布式数据库有两类,一个是以 Google Spanner 为代表,一个是以 AWS Auraro 为代表。

Spanner 是 shared nothing 的架构,内部维护了自动分片、分布式事务、弹性扩展能力,数据存储还是需要 sharding,plan 计算也需要涉及多台机器,也就涉及了分布式计算和分布式事务。主要产品代表为 TiDB、CockroachDB、OceanBase 等。

Auraro 主要思想是计算和存储分离架构,使用共享存储技术,这样就提高了容灾和总容量的扩展。但是在协议层,只要是不涉及到存储的部分,本质还是单机实例的 MySQL,不涉及分布式存储和分布式计算,这样就和 MySQL 兼容性非常高。主要产品代表为 PolarDB。

2、去哪儿数据存储方案现状

在去哪儿的 DBA 团队,主要有三种数据存储方案,分别是 MySQL、Redis 和 HBase。

MySQL 是去哪儿的最主要的数据存储方案,绝大部分核心的数据都存储在 MySQL 中。MySQL 的优点不用多说,缺点是没法做到水平扩展。MySQL 要想能做到水平扩展,唯一的方法就业务层的分库分表或者使用中间件等方案。因此几年前就出现了各大公司重复造轮子,不断涌现出中间层分库分表解决方案,比如百度的 DDBS,淘宝的 TDDL,360 的 Atlas 等。但是,这些中间层方案也有很大局限性,执行计划不是最优,分布式事务,跨节点 join,扩容复杂(这个心酸 DBA 应该相当清楚)等。 Redis 主要作为缓存使用,针对读访问延时要求高的业务,使用场景有限。

HBase 因其分布式的特点,可以通过 RS 的增加线性提升系统的吞吐,HDFS 具有水平扩展容量的能力,主要用来进行大数据量的存储,如日志、历史数据、订单快照等。HBase 底层存储是 LSM-Tree 的数据结构,与 B+ Tree 比,LSM-Tree 牺牲了部分读性能,用来大幅提升写性能。 但在实际运维的过程中,HBase 也暴露了一些缺点:

(1) HBase 能提供很好地写入性能,但读性能就差很多,一是跟本身 LSM-Tree 数据结构有关。二是 HBase 因为要存储大容量,我们采用的是 SAS 盘,用 SSD 成本代价太大。三是跟 HBase 自身架构有关,多次 RPC、JVM GC 和 HDFS 稳定性因素都会影响读取性能。

(2) HBase 属于 NoSQL,不支持 SQL,对于使用惯了关系 SQL 的人来说很不方便,另外在运维定位问题的时候也增加了不少难度。比如在运维 MySQL 过程中,可以很快通过慢查询日志就识别出哪些 SQL 执行效率低,快速定位问题 SQL。而在 HBase 运维中,就很难直接识别出客户端怎样的操作很慢,为此我们还在源码中增加了慢查询 Patch,但终归没有直接识别 SQL 来的方便。

(3) HBase 的软件栈是 Java,JVM 的 GC 是个很头疼的问题,在运维过程中多次出现 RegionServer 因为 GC 挂掉的情况,另外很难通过优化来消除访问延时毛刺,给运维造成了很大的困扰。此外,HBase 在编程语言支持访问对 Java 友好,但是其他语言的访问需要通过 Thrift,有些限制。

(4) 架构设计上,HBase 本身不存储数据,HBase 通过 RPC 跟底层的 HDFS 进行交互,增加了一次 RPC,多层的架构也多了维护成本。另外 ZooKeeper 的高可用也至关重要,它的不可用也就直接造成了所有 HBase 的不可用。

(5) HBase 不支持跨行事务。HBase 是 BigTable 的开源实现,BigTable 出现之后,Google 的内部就不停有团队基于 BigTable 做分布式事务,所以诞生了一个产品叫 MegaStore,虽然延时很大,但禁不住好用,所以用的人也很多,BigTable 的作者也后悔当初没有在 BigTable 中加入跨行事务。没有了跨行事务,也就没法实现二级索引,用户只能根据设计 rowkey 索引来进行查询,去哪儿不少业务开发问过我 HBase 是否支持二级索引,结果也不得不因为这个限制放弃了使用 HBase。业界很多公司也在 HBase 上实现二级索引,比如小米、华为等,比较出名的是 Phoenix。我们当初也调研了 Phoenix 来支持二级索引,但在 HBase 本身层次已经很多,Phoenix 无疑又多了一层,在运维的过程中也感觉坑很多 , 此外何时用 Phoenix 何时用 HBase API 的问题也给我们造成很多困扰,最终放弃了这个方案。

综上所述,为了解决现有数据存储方案所遇到的问题,去哪儿 DBA 团队从 2017 年上半年开始调研分布式数据库,在分布式数据库的产品选择上,综合各个方面因素考虑,最终选择了 TiDB,具体原因不在这里细说了,下面开始具体聊聊 TiDB。

3、TiDB 架构设计

如上图,TiDB 架构主要分为三个组件:

(1) TiDB Server

负责接收 SQL 请求,处理 SQL 相关逻辑,通过 PD 找到所需数据的 TiKV 地址。TiDB Server 是无状态的,本身不存储数据,只负责计算,可以无限水平扩展。TiDB 节点可以通过负载均衡组件 (如 LVS、HAProxy 或者 F5)对外提供统一入口,我个人觉得如果要能实现像 Elasticsearch 那样自己的客户端就更好。

(2) PD Server

Placement Driver (简称 PD) 是整个集群的管理模块,其主要工作有三个:

  • 一是存储集群元信息(某个 Key 存储在哪个 TiKV 节点);
  • 二是对 TiKV 集群进行调度和负载均衡(数据迁移、Raft group leader 迁移等;
  • 三是分配全局唯一且递增的事务 ID。

(3) TiKV Server

TiKV 负责存储数据,存储数据基本单位是 Region,每个 TiKV 节点负责管理多个 Region。TiKV 使用 Raft 协议做复制,保证数据一致性和容灾。数据在多个 TiKV 之间的负载均衡由 PD 调度,以 Region 为单位调度。

TiDB 最核心的特性是水平扩展和高可用。

(1) 水平扩展

TiDB Server 负责处理 SQL 请求,可以通过添加 TiDB Server 节点来扩展计算能力,以提供更高的吞吐。TiKV 负责存储数据,随着数据量的增长,可以部署更多的 TiKV Server 节点来解决数据 Scale 的问题。

(2) 高可用

因 TiDB 是无状态的,可以部署多个 TiDB 节点,前端通过负载均衡组件对外提供服务,这样可以保证单点失效不影响服务。而 PD 和 TiKV 都是通过 Raft 协议来保证数据的一致性和可用性。

4、TiDB 原理与实现

TiDB 架构是 SQL 层和 KV 存储层分离,相当于 innodb 插件存储引擎与 MySQL 的关系。从下图可以看出整个系统是高度分层的,最底层选用了当前比较流行的存储引擎 RocksDB,RockDB 性能很好但是是单机的,为了保证高可用所以写多份(一般为 3 份),上层使用 Raft 协议来保证单机失效后数据不丢失不出错。保证有了比较安全的 KV 存储的基础上再去构建多版本,再去构建分布式事务,这样就构成了存储层 TiKV。有了 TiKV,TiDB 层只需要实现 SQL 层,再加上 MySQL 协议的支持,应用程序就能像访问 MySQL 那样去访问 TiDB 了。

这里还有个非常重要的概念叫做 Region。MySQL 分库分表是将大的数据分成一张一张小表然后分散在多个集群的多台机器上,以实现水平扩展。同理,分布式数据库为了实现水平扩展,就需要对大的数据集进行分片,一个分片也就成为了一个 Region。数据分片有两个典型的方案:一是按照 Key 来做 Hash,同样 Hash 值的 Key 在同一个 Region 上,二是 Range,某一段连续的 Key 在同一个 Region 上,两种分片各有优劣,TiKV 选择了 Range partition。TiKV 以 Region 作为最小调度单位,分散在各个节点上,实现负载均衡。另外 TiKV 以 Region 为单位做数据复制,也就是一个 Region 保留多个副本,副本之间通过 Raft 来保持数据的一致。每个 Region 的所有副本组成一个 Raft Group, 整个系统可以看到很多这样的 Raft groups。

最后简单说一下调度。 TiKV 节点会定期向 PD 汇报节点的整体信息,每个 Region Raft Group 的 Leader 也会定期向 PD 汇报信息,PD 不断的通过这些心跳包收集信息,获得整个集群的详细数据,从而进行调度,实现负载均衡。

5、硬件选型和部署方案

在硬件的选型上,我们主要根据三个组件对硬件不同要求来考虑,具体选型如下:

因 TiDB 和 PD 对磁盘 IO 要求不高,所以只需要普通磁盘即可。TiKV 对磁盘 IO 要求较高。TiKV 硬盘大小建议不超过 500G,以防止硬盘损害时,数据恢复耗时过长。综合内存和硬盘考虑,我们采用了 4 块 600G 的 SAS 盘,每个 TiKV 机器起 4 个 TiKV 实例,给节点配置 labels 并且通过在 PD 上配置 location-labels 来指明哪些 label 是位置标识,保证同一个机器上的 4 个 TiKV 具有相同的位置标识,同一台机器是多个实例也只会保留一个 Replica。有条件的最好使用 SSD,这样可以提供更好的性能。强烈推荐万兆网卡。

TiDB 节点和 PD 节点部署在同台服务器上,共 3 台,而 TiKV 节点独立部署在服务器上,最少 3 台,保持 3 副本,根据容量大小进行扩展。

部署工具使用了 TiDB-Ansible,TiDB-Ansible 是 PingCAP 基于 Ansible playbook 功能编写了一个集群部署工具叫 TiDB-Ansible。使用该工具可以快速部署一个完整的 TiDB 集群(包括 PD、TiDB、TiKV 和集群监控模块),一键完成以下各项运维工作:

  • 初始化操作系统,包括创建部署用户、设置 hostname 等
  • 部署组件
  • 滚动升级,滚动升级时支持模块存活检测
  • 数据清理
  • 环境清理
  • 配置监控模块

6、监控方案

PingCAP 团队给 TiDB 提供了一整套监控的方案,他们使用开源时序数据库 Prometheus 作为监控和性能指标信息存储方案,使用 Grafana 作为可视化组件进行展示。具体如下图,在 client 端程序中定制需要的 Metric 。Push GateWay 来接收 Client Push 上来的数据,统一供 Prometheus 主服务器抓取。AlertManager 用来实现报警机制,使用 Grafana 来进行展示。

 

下图是某个集群的 Grafana 展示图

7、TiDB 使用情况

对于 TiDB 的使用,我们采用大胆实践、逐步推广的思路,一个产品是否经得起考验,需要先用起来,在运维的过程中才能发现问题并不断反馈完善。因此,去哪儿 DBA 经过了充分调研后,8 月下旬开始,我们就先在非核心业务使用,一方面不会因为 TiDB 的问题对现有业务影响过大,另一方面 DBA 自身也积累运维经验,随着产品自身的完善,集群使用量和运维经验的积累,后续我们再逐步推广到更重要的集群中,解决业务上遇到的数据存储的痛点。目前已经上线了两个 TiDB 集群。

(1) 机票离线集群,主要是为了替换离线 MySQL 库,用于数据统计。当前系统容量是 1.6T,每天以 10G 的增量进行增长,用 MySQL 存储压力较大,且没法扩展,另外一些 OLAP 查询也会影响线上的业务。

(2) 金融支付集群,主要是想满足两方面需求,一是当前存储在 MySQL 中的支付信息表和订单信息表都是按月进行分表,运营或者开发人员想对整表进行查询分析,现有的方案是查多个表查出来然后程序进行进一步统计 。二是有些查询并不需要在线上进行查询,只需要是作为线下统计使用,这样就没有必要对线上表建立索引,只需要离线库建立索引即可,这样可以避免降低写性能。

目前的架构是用 syncer 从线上 MySQL 库做分库分表数据同步到 TiDB 中,然后开发可以在 TiDB 上进行 merge 单表查询、连表 join 或者 OLAP。

相关实践学习
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
3月前
|
关系型数据库 MySQL 分布式数据库
开发者关注的数据库技术与创新
【1月更文挑战第4天】开发者关注的数据库技术与创新
|
3月前
|
分布式数据库 数据库 数据安全/隐私保护
开发者关注的数据库技术与创新,未来数据库的演进及理想数据库的构想
作为开发者,想必大家都知道在技术圈中数据库相关领域是技术开发中的重中之重,数据库技术与创新不断推动着数字化时代的发展,数据库技术正在经历着一次创新的浪潮,还有就是数据库技术的不断创新为开发者们在日常实际开发中提供了更多的可能性和好的机遇。那么本文就来简单聊聊最值得开发者关注的数据库技术与创新,包括分布式数据库、图数据库、时序数据库、区块链数据库以及AI与数据库的结合等方面,以及探讨未来数据库的演进趋势,并讨论一下在开发者心目中最理想的数据库的特征与构想。
53 3
|
3月前
|
前端开发 Java 数据库连接
基于SpringBoot+Thymeleaf+Mybatis实现大学生创新创业管理系统(源码+数据库+项目运行指导文档)
基于SpringBoot+Thymeleaf+Mybatis实现大学生创新创业管理系统(源码+数据库+项目运行指导文档)
|
11月前
|
缓存 运维 NoSQL
中泰证券引入阿里云瑶池数据库:完成核心业务系统自主创新,实现业务微秒级响应
一举打破自建Redis架构的性能瓶颈,并带来了稳定性提升
615 1
|
11月前
|
SQL 分布式计算 关系型数据库
|
11月前
|
数据采集 运维 Cloud Native
|
11月前
|
存储 SQL 关系型数据库
|
小程序 大数据 数据库
《数据库大数据一体化加速数智化创新 V6》电子版地址
数据库大数据一体化加速数智化创新 V6
73 0
《数据库大数据一体化加速数智化创新 V6》电子版地址
|
人工智能 安全 Cloud Native
openGauss凝聚创新力量,推动数据库跨越式发展
openGauss凝聚创新力量,推动数据库跨越式发展
103 0
openGauss凝聚创新力量,推动数据库跨越式发展