直击阿里双11神秘技术:PB级大规模文件分发系统“蜻蜓”

简介: 2017天猫双11, 交易峰值32.5万/秒,支付峰值25.6万/秒,数据库处理峰值4200万次/秒,成交额1682亿数字的背后是50+神秘技术!其中,阿里集团基础设施蜻蜓,在双11期间,对上万台服务器同时下发5GB的数据文件,让大规模文件分发靠蜻蜓系统完美实现。
导读:2017天猫双11, 交易峰值32.5万/秒,支付峰值25.6万/秒,数据库处理峰值4200万次/秒,成交额1682亿数字的背后是50+神秘技术!其中,阿里集团基础设施蜻蜓,在双11期间,对上万台服务器同时下发5GB的数据文件,让大规模文件分发靠蜻蜓系统完美实现。

蜻蜓,通过解决大规模文件下载以及跨网络隔离等场景下各种难题,大幅提高数据预热、大规模容器镜像分发等业务能力。月均分发次数突破20亿次,分发数据量3.4PB。其中容器镜像分发比natvie方式提速可高达57倍,registry网络出口流量降低99.5%以上。今天,阿里巴巴集团基础架构事业群运维中台负责人,亲历者如柏,将为我们详述蜻蜓从文件分发到镜像传输的技术之路。

蜻蜓的诞生 

蜻蜓是阿里自研的P2P文件分发系统,是阿里基础运维平台重要组成部分,是云效-智能运维平台的核心竞争力,也是阿里云容器服务的关键组件。
 
随着阿里业务爆炸式增长,2015年时发布系统日均的发布量突破两万,很多应用的规模开始破万,发布失败率开始增高, 而根本原因就是发布过程需要大量的文件拉取,文件服务器扛不住大量的请求,当然很容易想到服务器扩容,可是扩容后又发现后端存储成为瓶颈。此外,大量来自不同IDC的客户端请求消耗了巨大的网络带宽,造成网络拥堵。
 
同时,很多业务走向国际化,大量的应用部署在海外,海外服务器下载要回源国内,浪费了大量的国际带宽,而且还很慢;如果传输大文件,网络环境差,失败的话又得重来一遍,效率极低。
 
于是很自然的就想到了P2P技术,因为P2P技术并不新鲜,当时也调研了很多国内外的系统,但是调研的结论是这些系统的规模和稳定性都无法达到我们的期望。所以就有了蜻蜓这个产品。

设计目标

针对这些痛点,蜻蜓在设计之初定了几个目标:
 
1. 解决文件源被打爆的问题,在Host之间组P2P网,缓解文件服务器压力,节约跨IDC之间的网络带宽资源。
2. 加速文件分发速度,并且保证上万服务器同时下载,跟一台服务器下载没有太大的波动。
3. 解决跨国下载加速和带宽节约。
4. 解决大文件下载问题,同时必须要支持断点续传。
5. Host上的磁盘IO,网络IO必须可以被控制,以避免对业务造成影响。

系统架构

ef23c77b3a0e9bed862d405e4003ea7e023e845b
蜻蜓整体架构

蜻蜓整体架构分三层:第一层是Config Service, 他管理所有的Cluster Manager,Cluster Manager又管理所有的Host, Host就是终端,dfget就是类似wget的一个客户端程序。
 
Config Service 主要负责Cluster Manager的管理、客户端节点路由、系统配置管理以及预热服务等等。简单的说, 就是负责告诉Host,离他最近的一组Cluster Manager的地址列表,并定期维护和更新这份列表,使Host总能找到离他最近的Cluster Manager。
 
Cluster Manager 主要的职责有两个:
1. 以被动CDN方式从文件源下载文件并生成一组种子分块数据;
2. 构造P2P网络并调度每个peer之间互传指定的分块数据。
 
Host上就存放着dfget,dfget的语法跟wget非常类似。主要功能包括文件下载和P2P共享等。
 
在阿里内部我们可以用StarAgent来下发dfget指令,让一组机器同时下载文件,在某种场景下一组机器可能就是阿里所有的服务器,所以使用起来非常高效。除了客户端外, 蜻蜓还有Java SDK,可以让你将文件“PUSH”到一组服务器上。
 
下面这个图阐述了两个终端同时调用dfget,下载同一个文件时系统的交互示意图:

c3863ec071bcec3364f1692a2d92f40f308d39e7
蜻蜓P2P组网逻辑示意图

两个Host和CM会组成一个P2P网络,首先CM会查看本地是否有缓存,如果没有,就会回源下载,文件当然会被分片,CM会多线程下载这些分片,同时会将下载的分片提供给Host们下载,Host下载完一个分片后,同时会提供出来给peer下载,如此类推,直到所有的Host全部下载完。
 
本地下载的时候会将下载分片的情况记录在metadata里,如果突然中断了下载,再次执行dfget命令,会断点续传。

下载结束后,还会比对MD5,以确保下载的文件和源文件是完全一致的。蜻蜓通过HTTP cache协议来控制CM端对文件的缓存时长,CM端当然也有自己定期清理磁盘的能力,确保有足够的空间支撑长久的服务。
 
在阿里还有很多文件预热的场景,需要提前把文件推送到CM端,包括容器镜像、索引文件、业务优化的cache文件等等。

在第一版上线后,我们进行了一轮测试, 结果如下图:

0b20249124a6f4f8d208c2ad9225168a6301556b

传统下载和蜻蜓P2P下载测试结果对比图

X轴是客户端数量, Y轴是下载时长,
文件源:测试目标文件200MB(网卡:千兆bit/s)
Host端:百兆bit/s网卡
CM端:2台服务器(24核 64G,网卡:千兆bit/s)
 
从这个图可以看出两个问题:
1. 传统模式随着客户端的增加,下载时长跟着增加,而dfget可以支撑到7000客户端依然没变好。
2. 传统模式到了1200客户端以后就没有数据了,因为数据源被打爆了。
 
每年双11之前都是发布高峰期, 2015年双11就是靠蜻蜓完美渡过了。

从发布系统走向基础设施
2015年双11后,蜻蜓的下载次数就达到了12万/月,分发量4TB。当时在阿里还有别的下载工具,如wget,curl,scp,ftp 等等,也有自建的小规模文件分发系统。我们除了全面覆盖自身发布系统外,也做了小规模的推广。到2016年双11左右,我们的下载量就达到了1.4亿/月,分发量708TB,业务增长了近千倍。
 
2016年双11后我们提出了一个更高的目标, 希望阿里大规模文件分发和大文件分发90%的业务由蜻蜓来承担。我们希望蜻蜓成为全集团的基础设施。

我希望通过这个目标锤炼出最好的P2P文件分发系统。此外也可以统一集团内所有的文件分发系统。统一可以让更多的用户受益,但统一从来不是终极目标, 统一的目的是:1. 减少重复建设;2. 全局优化。
 
只要优化蜻蜓一个系统,全集团都能受益。比如我们发现系统文件是每天全网分发的,而光这一个文件压缩的话就能给公司每天节省9TB网络流量。跨国带宽资源尤其宝贵。而如果大家各用各的分发系统,类似这样的全局优化就无从谈起。
 
所以统一势在必行!
 
在大量数据分析基础上,我们得出全集团文件分发的量大概是3.5亿次/周,而我们当时的占比只有10%不到。
 
经过半年努力,在2017年4月份,我们终于实现了这个目标, 达到90%+的业务占有率,业务量增长到3亿次/周(跟我们之前分析的数据基本吻合),分发量977TB,这个数字比半年前一个月的量还大。
 
当然,不得不说这跟阿里容器化也是密不可分的,镜像分发流量大约占了一半。下面我们就来介绍下蜻蜓是如何支持镜像分发的。在说镜像分发之前先说下阿里的容器技术。

阿里的容器技术

容器技术的优点自然不需要多介绍了,全球来看,容器技术以Docker为主占了大部分市场,当然还有其他解决方案:比如rkt,Mesos Uni Container,LXC等,而阿里的容器技术命名为Pouch。早在2011年,阿里就自主研发了基于LXC的容器技术T4,只是当时我们没有创造镜像这个概念,T4还是当做虚拟机来用,当然比虚拟机要轻量的多。
 
2016年阿里在T4基础上做了重大升级,演变为今天的Pouch,并且已经开源。目前Pouch容器技术已经覆盖阿里巴巴集团几乎所有的事业部,在线业务100%容器化,规模高达数十万。镜像技术的价值扩大了容器技术的应用边界,而在阿里如此庞大的应用场景下,如何实现高效“镜像分发”成为一个重大命题。
 
回到镜像层面。宏观上,阿里巴巴有规模庞大的容器应用场景;微观上,每个应用镜像在镜像化时,质量也存在参差不齐的情况。
 
理论上讲用镜像或者用传统“基线”模式,在应用大小上不应该有非常大的区别。但事实上这完全取决于Dockerfile写的好坏,也取决于镜像分层是否合理。阿里内部其实有最佳实践,但是每个团队理解接受程度不同,肯定会有用的好坏的之分。尤其在一开始,大家打出来的镜像有3~4GB这都是非常常见的。
 
所以作为P2P文件分发系统,蜻蜓就有了用武之地,无论是多大的镜像,无论是分发到多少机器,即使你的镜像打的非常糟糕,我们都提供非常高效的分发,都不会成瓶颈。这样就给我们快速推广容器技术,让大家接受容器运维模式,给予了充分消化的时间。

容器镜像

在讲镜像分发之前先简单介绍下容器镜像。我们看下Ubuntu系统的镜像:我们可以通过命令 docker history ubuntu:14.04 查看 ubuntu:14.04,结果如下:

5faf6b840b508ec70c717bee056b79fe3aa367f4

需要注意的是:镜像层 d2a0ecffe6fa 中没有任何内容,也就是所谓的空镜像。

镜像是分层的,每层都有自己的ID和尺寸,这里有4个Layer,最终这个镜像是由这些Layer组成。
 
Docker镜像是通过Dockerfile来构建,看一个简单的Dockerfile:

61fb84e0d5fe3852a7995961ea9e1cc736cf49c6
镜像构建过程如下图所示:

5cf1bb8335f4bde91be46b3ec2fa613e750daa9a

可以看到,新镜像是从 base 镜像一层一层叠加生成的。每安装一个软件,就在现有镜像的基础上增加一层。
 
当容器启动时,一个可写层会被加载到镜像的顶层,这个可读可写层也被称为“容器层”,容器层之下都是“镜像层”,都是只读的。

e22b8541aecc3e9d4f5d9fb8abc55b9f48df5cab

如果镜像层内容为空,相应的信息会在镜像json文件中描述,如果镜像层内容不为空,则会以文件的形式存储在OSS中。

镜像分发

4e74adb820211f22bde8b7e7ef87e1518dc9b7ba
Docker 镜像下载流程图
 
以阿里云容器服务为例,传统的镜像传输如上图所示,当然这是最简化的一种架构模式,实际的部署情况会复杂的多,还会考虑鉴权、安全、高可用等等。
 
从上图可以看出,镜像传输跟文件分发有类似的问题,当有一万个Host同时向Registry请求时,Registry就会成为瓶颈,还有海外的Host访问国内Registry时候也会存在带宽浪费、延时变长、成功率下降等问题。
 
下面介绍下Docker Pull的执行过程:

e740d16b25a4e088e47e8f3fb814f7113431d259
Docker 镜像分层下载图
 
Docker Daemon调用Registry API得到镜像的Manifest,从Manifest中能算出每层的URL,Daemon随后把所有镜像层从Registry并行下载到Host本地仓库。
 
所以最终,镜像传输的问题变成了各镜像层文件的并行下载的问题。而蜻蜓擅长的正是将每层镜像文件从Registry用P2P模式传输到本地仓库中。
 
那么具体又是如何做到的呢?
 
事实上我们会在Host上启动dfGet proxy,Docker/Pouch Engine的所有命令请求都会通过这个proxy,我们看下图:

4ef90fae7c7d316a316f680c9002434c0651635e
蜻蜓P2P容器镜像分发示意图
 
首先,docker pull命令,会被dfget proxy截获。然后,由dfget proxy向CM发送调度请求,CM在收到请求后会检查对应的下载文件是否已经被缓存到本地,如果没有被缓存,则会从Registry中下载对应的文件,并生成种子分块数据(种子分块数据一旦生成就可以立即被使用);如果已经被缓存,则直接生成分块任务,请求者解析相应的分块任务,并从其他peer或者supernode中下载分块数据,当某个Layer的所有分块下载完成后,一个Layer也就下载完毕了,同样,当所有的Layer下载完成后,整个镜像也就下载完成了。
 
蜻蜓支持容器镜像分发,也有几个设计目标:
 
1. 大规模并发:必须能支持十万级规模同时Pull镜像。
2. 不侵入容器技术内核(Docker Daemon, Registry):也就是说不能改动容器服务任何代码。
3. 支持Docker,Pouch,Rocket ,Hyper等所有容器/虚拟机技术。
4. 支持镜像预热:构建时就推送到蜻蜓集群CM。
5. 支持大镜像文件:至少30GB。
6. 安全。

Native Docker V.S 蜻蜓
我们一共做了两组实验:
 
实验一:1个客户端
1. 测试镜像大小:50MB、200MB、500MB、1GB、5GB
2. 镜像仓库带宽:15Gbps
3. 客户端带宽:双百兆bit/s网络环境
4. 测试规模:单次下载

1c0a28e8e939c8e9d4d0cf63ebe9faed14390196
单客户端不同模式对比图

Native和蜻蜓(关闭智能压缩特性)平均耗时基本接近,蜻蜓稍高一点,因为蜻蜓在下载过程中会校验每个分块数据的MD5值,同时在下载之后还会校验整个文件的MD5,以保证下载的文件跟源文件是一致的;而开启了智能压缩的模式下,其耗时比Native模式还低!
 
实验二:多客户端并发
1. 测试镜像大小:50MB、200MB、500MB、1GB、5GB
2. 镜像仓库带宽:15Gbps
3. 客户端带宽:双百兆bit/s网络环境
4. 多并发:10并发、200并发、1000并发

17064a157930437eeb037e4219cc3b45151ecbed
不同镜像大小和并发数的对比图

上图可以看出,随着下载规模的扩大,蜻蜓与Native模式耗时差异显著扩大,最高可提速可以达20倍。在测试环境中源的带宽也至关重要,如果源的带宽是2Gbps,提速可达57倍。

下图是下载文件的总流量(并发数 * 文件大小)和回源流量(去Registry下载的流量)的一个对比:

f20190afbe959b9938c48fc0b16768aefd393f78
蜻蜓镜像分发出流量对比图

向200个节点分发500M的镜像,比docker原生模式使用更低的网络流量,实验数据表明采用蜻蜓后,Registry的出流量降低了99.5%以上;而在1000并发规模下,Registry的出流量更可以降低到99.9%左右。

阿里巴巴实践效果

蜻蜓在阿里投入使用大概已有两年,两年来业务发展迅速,从分发的次数来统计目前一个月接近20亿次,分发3.4PB数据。其中容器镜像的分发量接近一半。

8f7f5207a6ed40f6a7fb4c7fcba85eb89cce7eac
蜻蜓在阿里文件vs镜像分发流量趋势图

在阿里最大的一次分发应该就是今年双11期间, 要对上万台服务器同时下发5GB的数据文件。

走向智能化

阿里在AIOps起步虽然不是最早, 但是我们近年来投入巨大,并在很多产品上有所应用。蜻蜓这个产品中有以下应用:
 
智能流控
 
流控在道路交通中很常见,比如中国道路限速规定,没有中心线的公路,限速为40公里/小时;同方向只有1条机动车道的公路,限速为70公里/小时;快速道路80公里;高速公路最高限速为120公里/小时等等。这种限速对每辆车都一样,显然不够灵活,所以在道路非常空闲的情况下,道路资源其实是非常浪费的,整体效率非常低下。
 
红绿灯其实也是流控的手段,现在的红绿灯都是固定时间,不会根据现实的流量来做智能的判断,所以去年10月召开的云栖大会上,王坚博士曾感慨,世界上最遥远的距离不是从南极到北极,而是从红绿灯到交通摄像头,它们在同一根杆上,但从来没有通过数据被连接过,摄像头看到的东西永远不会变成红绿灯的行动。这既浪费了城市的数据资源,也加大了城市运营发展的成本。
 
蜻蜓其中一个参数就是控制磁盘和网络带宽利用率的,用户可以通过参数设定使用多少网络IO/磁盘IO。如上所述,这种方法是非常僵化的。所以目前我们智能化方面的主要思想之一是希望类似的参数不要再人为来设定,而是根据业务的情况结合系统运行的情况,智能的决定这些参数的配置。最开始可能不是最优解,但是经过一段时间运行和训练后自动达到最优化的状态,保证业务稳定运行同时又尽可能的充分利用网络和磁盘带宽,避免资源浪费。
 
智能调度
 
分块任务调度是决定整个文件分发效率高低与否的关键因素,如果只是通过简单的调度策略,比如随机调度或者其他固定优先级的调度,这种做法往往会引起下载速率的频繁抖动,很容易导致下载毛刺过多,同时整体下载效率也会很差。为了最优化任务调度,我们经历了无数次的尝试和探索,最终通过多维度(比如机器硬件配置、地理位置、网络环境、历史下载结果和速率等等维度的数据)的数据分析(主要利用了梯度下降算法,后续还会尝试其他算法),智能动态决定当前请求者最优的后续分块任务列表。
 
智能压缩

智能压缩会对文件中最值得压缩的部分实施相应的压缩策略,从而可以节约大量的网络带宽资源。

对容器镜像目前的实际平均数据来看,压缩率(Compression Ration) 是40%,也就是说100MB镜像可以压缩到40MB。针对1000并发规模,通过智能压缩可以减少60%的流量。

759ffadac8e90fa73a1c0a4466f025f723287df3
安全
 
在下载某些敏感的文件(比如秘钥文件或者账号数据文件等)时,传输的安全性必须要得到有效的保证,在这方面,蜻蜓主要做了两个工作:
1. 支持携带HTTP的header数据,以满足那些需要通过header来进行权限验证的文件源;
2. 利用对称加密算法,对文件内容进行传输加密。
 
开源
 
随着容器技术的流行,容器镜像这类大文件分发成为一个重要问题,为了更好的支持容器技术的发展,数据中心大规模文件的分发,阿里决定开源蜻蜓来更好的推进技术的发展。阿里将持续支持开源社区,并把自己经过实战检验的技术贡献给社区。敬请期待。
 
商业化
 
蜻蜓除了用于阿里集团内部容器化,也完全兼容社区版Docker,可以和阿里云容器服务(https://www.aliyun.com/product/containerservice)和飞天专有云敏捷版(https://yq.aliyun.com/articles/224507)无缝结合在一起,在公共云和专有云环境下支撑大规模的容器镜像分发。

总结

蜻蜓通过使用P2P技术同时结合智能压缩、智能流控等多种创新技术,解决大规模文件下载以及跨网络隔离等场景下各种文件分发难题,大幅提高数据预热、大规模容器镜像分发等业务能力。

蜻蜓支持多种容器技术,对容器本身无需做任何改造,镜像分发比natvie方式提速可高达57倍,Registry网络出流量降低99.5%以上。承载着PB级的流量的蜻蜓,在阿里已然成为重要的基础设施之一,为业务的极速扩张和双11大促保驾护航。

Reference
[1]Docker Overview:
https://docs.docker.com/engine/docker-overview/
[2]Where are docker images stored:
http://blog.thoward37.me/articles/where-are-docker-images-stored/
[3]Image Spec:
https://github.com/moby/moby/blob/master/image/spec/v1.md
[4]Pouch开源地址:
https://github.com/alibaba/pouch
[5]蜻蜓开源地址:
https://github.com/alibaba/dragonfly
[6]阿里云容器服务:
https://www.aliyun.com/product/containerservice
[7]飞天专有云敏捷版:
https://yq.aliyun.com/articles/224507
[8]云效智能运维平台:
https://www.aliyun.com/product/yunxiao

本文作者:毛茂德(花名:如柏):阿里巴巴集团基础架构事业群运维中台负责人,亲历者。主导架构设计高可靠、高并发、大规模的基础运维平台和应用运维平台, 十余年来坚持不懈的追求研发、测试、运维效率提升,推动DevOps实施落地。目前正致力于打造基于混合云的应用运维无人值守解决方案以及自动化、数据化、智能化应用运维解决方案。曾任职于IONA,RedHat,eBay,也是 Apache 顶级项目CXF 初创成员之一。
 
PS:致力于打造具备世界级影响力的云效智能运维平台,诚聘资深技术/产品专家  
工作地点:杭州、北京、美国
点击 招聘


蜻蜓即将输出到阿里云,服务于更多企业,也将成为 阿里云云效一站式协同研发云重要的功能。
相关实践学习
基于函数计算一键部署掌上游戏机
本场景介绍如何使用阿里云计算服务命令快速搭建一个掌上游戏机。
相关文章
|
6月前
|
编解码 监控 容灾
带你读《多媒体行业质量成本优化及容灾方案白皮书》1. 直播&点播业务通用质量指标介绍
带你读《多媒体行业质量成本优化及容灾方案白皮书》1. 直播&点播业务通用质量指标介绍
181 0
|
12月前
|
机器学习/深度学习 存储 人工智能
服务全球百万用户的最佳实践:硬件创新经验没有压缩算法!
服务全球百万用户的最佳实践:硬件创新经验没有压缩算法!
116 0
|
存储 数据采集 消息中间件
阿里十年技术沉淀|深度解析百PB级数据总线技术
数据总线作为大数据架构下的流量中枢,在不同的大数据组件之间承载着数据桥梁的作用。通过数据总线,可以实时接入来自服务器、K8s、APP、Web、IoT/移动端等产生的各类异构数据,进行统一数据管理,进而实现与下游系统的解耦;之后可以异步实现数据清洗、数据分发、实时计算、离线计算等计算过程,进而将结构化后的数据投递到下游的分析、归档系统,进而达到构建清晰的数据流的目的。广义上,数据采集与接入、传输链路、存储队列、消费计算、投递等都属于数据总线的范畴,整体上可以分为采集接入层、管道层、计算层。
22553 6
阿里十年技术沉淀|深度解析百PB级数据总线技术
|
人工智能 搜索推荐
解决方案应用实例 |搭载“业务+数据”双中台,贝泰妮实现高速奔跑
贝泰妮联合阿里云,通过建立技术中台和数据中台、升级现有的信息管理系统和会员管理系统、引入新的管理模块,进一步加强内部管理能力和产业链上下游的控制能力,实现产供销、人财物的全链路数据化管理,从而实现业务上的前后台高效运营和管理上的内外部掌控,实现优化资源配置,做到精准营销,进一步提升公司的市场竞争力。
280 0
解决方案应用实例 |搭载“业务+数据”双中台,贝泰妮实现高速奔跑
|
存储 编解码 缓存
免费下载 | 每日承载PB级视频流量,阿里文娱如何让你“清晰省流”
如何让用户体验“更清晰、更省流”,是阿里文娱的核心技术。本书将从媒资生产、播放技术、播控与版权出发,为你详细分析《更清晰更省流的文娱音视频核心技术》。
6226 0
免费下载 | 每日承载PB级视频流量,阿里文娱如何让你“清晰省流”
|
容器 Kubernetes Perl
万级规模 K8s 如何管理?蚂蚁双11核心技术公开
阿里妹导读:Kubernetes 大幅降低了容器化应用部署的门槛,并以其超前的设计理念和优秀的技术架构,在容器编排领域拔得头筹。越来越多的公司开始在生产环境部署实践。本文将分享蚂蚁金服是如何有效可靠地管理大规模 Kubernetes 集群的,并会详细介绍集群管理系统核心组件的设计。
7022 0
|
物联网 消息中间件 调度
从零到百万级iot系统架构演进(会不断更新
2年从单应用架构,到现在基础中台的iot架构,从零到现在注册用户百万
6286 0
从零到百万级iot系统架构演进(会不断更新
|
分布式计算 MaxCompute Hadoop
千亿级的数据难题,优酷工程师怎么解决?
今天,阿里数据技术专家门德亮给大家做个分享,从为什么要用MaxCompute,到优酷的业务场景下典型的方案及应用分析,聊聊迁移后对业务及平台的具体价值。本文内容根据演讲视频以及PPT整理而成,希望对你有所助益。
2363 0
|
双11 数据中心 PouchContainer
OSCAR开源先锋日 | 双 11 背后的技术支撑:百万级规模下的阿里开源容器技术
容器技术已然成为企业数据中心的标配技术,企业通过容器技术尝试快速交付业务,然而事实上目前仍未达到容器技术在企业中迅速铺开的阶段。如何通过高效可靠的容器技术,帮助企业迅速实现内部存量应用的容器化,以及提供安全隔离性强的环境,依然是容器技术急需解决的难题。
1589 0

热门文章

最新文章