有哪些大数据处理工具?

  1. 云栖社区>
  2. 云栖号资讯>
  3. 博客>
  4. 正文

有哪些大数据处理工具?

云栖号资讯小编 2020-07-22 12:23:04 浏览807
展开阅读全文

云栖号资讯:【点击查看更多行业资讯
在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来!

image

阿里妹导读:近几年里,大数据行业发展势头迅猛,故而相应的分布式产品和架构层出不穷,本文分享作者在大数据系统实践过程中接触过的一些工具及使用感受,抛砖引玉,和同学们一起构建一个分布式产品的全景图。

下图是由著名的数据观察家Matt Turck在他的BLOG(https://mattturck.com/)里发出的2019年人工智能和大数据产业图,他从2012年开始每年都会绘制一张,大致描述这个产业里的公司及其数据相关的产品,以及所属问题的领域。这里面大部分是商业软件,而对于绝大多数互联网公司,中间绿色的开源产品可能大家接触的更多一些,而这些产品里,绝大多数都属于Apache基金会。

image

下面我从中挑选一些东西随便聊聊,因为是随便聊聊,所以知识点并不全,也不能帮助大家知道如何搭建和使用,以及如何避坑,只是谈谈我对这些东西的印象,描述一个大概的轮廓,如有使用需求可以搜索网上其它文章,资料还是很多的。当然,大家对其中的内容有兴趣可以随时找我交流讨论,对文中如有描述错误的地方也欢迎大家斧正,共同学习,谢谢。

Apache Hadoop

官网:http://hadoop.apache.org/

Hadoop项目下包含了很多子项目,从计算到存储都有,比如HDFS、MapReduce、YARN、HBase。

HDFS全称叫做Hadoop分布式文件系统,其主要由一个NameNode(NN)和多个DataNode(DN)组成,数据文件会分成多个Block,这些Block按照不同主机,不同机架的策略以默认一备三的情况分布存储在各个节点。现在每个Block大小默认是128MB,以后随着磁盘寻址速度的增加,这个Block也会不断增大。而NN里面则存储了这些Block元数据的信息,这样客户端进行数据查询的时候,DN告知所需数据的位置。从这种结构上能看出一些比较明显的问题就是NN节点的单点问题,所以在Hadoop 2.x的时候,针对NN做了一些改进。

image

首先是在系统可用性上,增加了一个StandBy状态的NN,作为服务中NN(Active NN)的备机,当服务中的NN挂掉后,由StandBy的NN自动接替工作。而NN节点状态的健康和服务切换,由ZKFC负责。主备NN之间的信息同步则由Quorum Journal Node负责。

其次,由于单台NN中存储了大量的元数据信息,所以随着HDFS数据量的不断增加,显然NN必将成为系统的瓶颈,为了解决这个问题,Hadoop 2.x增加了Federation,该技术允许系统中有多台NN同时对外提供服务,这多台NN将DN中的所有文件路径进行了横向拆分,每个DN负责不同的路径,达到了横向扩展的效果。

除了HDFS,Hadoop 2.x也引入了YARN,该工具负责对集群中的资源进行管理和任务的协调。该工具分成一个ResourceManager(RM)和多个NodeManager(NM),当一个任务提交给YARN之后,会先在某一服务器上启动一个ApplicationMaster(AM),AM向RM申请资源,RM通过NM寻找集群中空闲的资源,NM将资源打包成一个个Container,交给AM。AM将数据和程序分发到对应节点上处理,如果某个Container中的任务执行失败了,AM会重新向RM申请新的Container。

Apache Hadoop HBase & Kudu

官网:http://hbase.apache.org/

image

众所周知,HBase一个分布式列式存储系统,同样属于Hadoop的子项目,列式存储的优劣在这里不说了,提一下HBase的WAL和LSM,WAL全称为Write Ahead Log,只是在数据修改操作前,会先将此操作记录在日志中,这样一旦服务崩溃,通过该日志即可进行数据的恢复,提到这里有些人就会联想到MySQL,因为InnoDB引擎的redo log就是典型的WAL应用。而在HBase中该功能是由叫做HLog的模块所完成的。再说LSM,其全称为Log Structured Merge Trees,介绍原理的文章也有很多,在HBase中,LSM树是MemStore模块的底层存储结构,而MemStore有三个作用,一是当有数据写入的时候,直接写到MemStore中,从而提升写数据的效率。二是充当读取数据时的缓存。三是定期对数据操作去重,并进行数据落盘。HBase的主要角色分别有HMaster和HRegionServer,同样是一对多的关系,而各节点的状态全都交由Zookeeper负责。Kudu是一个和HBase非常类似的产品,其不同之处在于Kudu不依赖Zookeeper来管理自己的集群,并且HBase的数据是保存在HDFS上的,而Kudu拥有自己的数据文件格式。

Apache Spark

官网:https://spark.apache.org/

Spark是由加州大学伯克利分校推出的分布式计算引擎,在Spark的官方主页上有一张和Hadoop的性能对比图,姑且不谈这张图中数据的准确性,但是Spark的确将Hadoop(主要是指MapReduce)的性能提升了一个量级。我理解这主要得益于两个方面:第一个是Spark计算过程中生成的中间数据不再落盘,没有了Spill的阶段。第二个是引入DAG对任务进行拆解,一个完整的Job被分成多个Stage,每个Stage里面又有多个Task,通过一张有向无环图,使得没有依赖关系的Task可以并行运行。

Spark不只是在批处理上有所成绩,而是更加注重整个生态圈的建设,其拥有流式处理框架SparkStreaming,采用微批的形式达到类似流处理的效果,现在又推出了Structured Streaming,实现基于状态的流处理框架。此外还拥有SparkSQL来帮助非开发人员更加便捷的调用Spark的服务和Spark MLlib这个机器学习库。

Spark虽好,但其对内存资源消耗也很大,同时也使得他在稳定性上不如MapReduce,所以有些大公司数仓的日常任务仍旧采用传统MapReduce的方式执行,不求最快,但求最稳。我们的系统在刚从MapReduce上切到Spark时,每天夜里也是任务异常频发,最后调整了任务和资源分配,再加上一个很粗暴的重试机制解决了。

Apache Flink

官网:https://flink.apache.org/

Flink是德国Data Artisans公司开发一款分布式计算系统,该公司于19年初被阿里巴巴集团收购。包括Spark和Kafka,也都看到了未来流式计算的前景是非常巨大的,纷纷建立属于自己的流式计算生态圈。

Flink和Spark Streaming相比,前者是真正的流式计算,而后者是微批处理,虽然批次足够小,但其本质毕竟还是批处理,这就导致有些场景SparkStreaming注定无法满足,虽然Spark现在将重心转移到了Structured Streaming,它弥补了Spark Streaming很多的不足,但是在处理流程上仍然是微批处理。

image

而Flink在设计之初就同时考虑了批处理和流处理这两种需求,所以使用者也可以只通过一个计算引擎,就能实现批处理和流处理两种计算场景,其主要几个需要清楚的特性我觉得分别是:State状态管理,CheckPoint容错机制,Window滑动窗口,和Watermark乱序解决。这些内容网上都有很多介绍,不再阐述。

Apache Impala

官网:https://impala.apache.org/

Impala是Cloudera公司用C++开发的支持SQL语义的查询系统,可以用来查询HDFS、HBase、Kudu的内容,也支持多种序列化和压缩格式,因为也是基于内存的计算,比传统MapReduce快很多。不过因为已经使用了Spark,所以组里并没有对Impala进行大规模的应用。经过一些零散的调研和了解,好像其它公司对Impala的应用也不是非常多。

Apache Zookeeper

官网:https://zookeeper.apache.org/

Zookeeper无论在数据系统还是在其它后端系统的使用场景都非常广,它可以用作分布式锁服务,可以用做系统的配置中心,可以协助完成一致性算法的选主过程,可以用于ZKFC做节点健康情况的探查,总之用处还有很多。而它的工作机制,基本就是ZAB协议的机制,一个支持崩溃恢复的原子广播协议,其主要组成也是由一个Leader和多个Follower组成的,数据的提交遵循2PC协议。当Leader崩溃时,Follower会自动切换状态开始重新选主,重新选完之后再进行多节点的数据对齐。

Apache Sqoop

官网:https://sqoop.apache.org/

一款用于在传统关系型数据库和HDFS之间互相进行数据传递的工具,无论是import还是export都提供了大量的参数,因为是分布式执行,数据传输的速度也非常快。只是在使用的过程中需要注意数据源中的异常数据,会比较容易造成数据传递过程中的异常退出。为了弥补Sqoop的功能单一,推出了Sqoop 2,架构上比Sqoop 1复杂了很多,不过我没有用过。

Apache Flume

官网:http://flume.apache.org/

分布式数据传输工具,支持包含文件、Netcat、JMS、HTTP在内的多种数据源。其结构上分成Source、Channel、Sink三部分,Source将获取到的数据缓存在Channel中,这个Channel可以是文件,可以是内存,也可以使用JDBC,Sink从Channel消费数据,传递给系统中的其他模块,比如HBase、HDFS、Kafka等等。

Apache Kafka

官网:http://kafka.apache.org/

曾经是一款由Scala开发的分布式消息队列产品,现在生态已经扩展了,因为它推出了Kafka Streaming,所以现在也应该被称作是一个流处理平台了,但这里不说Kafka Streaming,因为没有用过和了解过。

Kafka的队列按照Topic划分,每个Topic下由多个Partition组成,在单个Partition中的消息保证是有序的。这种结构下确保了消息是在磁盘顺序写入的,节省了磁盘寻址的时间,所以数据落盘的速度非常快。加之采用了mmap的方式,减少了用户态和内核态之间的数据拷贝次数,mmap是一种将文件内容和内存地址映射的技术,提效十分明显。Kafka和Flume的配合使用,形成了流式处理领域里的经典框架。

Apache Ranger & Sentry

官网:http://ranger.apache.org/
官网:http://sentry.apache.org/

Ranger和Sentry都是分布式的数据安全工具,这两个产品的功能也基本是一样的,就是去管理大数据计算生态圈产品的权限,Sentry是采用插件的形式,将自己集成到Impala、Hive、HDFS、Solr等产品上,当用户向这些产品发起请求,产品会先向Sentry Server进行校验,Sentry也可以和Kerberos配合使用,从而完成跨平台统一权限管理。而Ranger所提供的功能也类似,但是所支持的产品更加多样,包括HDFS、HBase、Hive、YARN、Storm、Solr、Kafka、Atlas等,其同样也是采用一个Ranger Admin连接多个集成到产品上的Ranger插件完成的权限验证过程。

Apache Atlas

官网:https://atlas.apache.org/

Apache Atlas是数据治理体系中比较重要的一个产品,它主要负责元数据的管理,这个元数据就是指用来描述数据的数据,比如数据的类型、名称、属性、作用、生命周期、有效范围、血缘关系等等,在大数据系统中,元数据有着非常大的价值,一个比较成熟的数据系统中一般都会存在着这么一个元数据管理平台,元数据除了能让业务人员更加方便快捷理解我们的数据和业务,也有着帮助我们提升数据质量,消除信息不对称,以及快速定位数据问题等作用,所以如何有效的利用好这些元数据,使这些数据产生更大的价值,也是很多人一直在思考的事情。现在Atlas支持的数据源有Hive、Sqoop、Storm,其导入方式有HOOK和Batch两种方式,首次使用是Batch的同步方式,之后Atlas会利用HOOK主动获取到数据源的变化,并更新自身数据。

Apache Kylin

官网:http://kylin.apache.org/

image

Kylin是一个为OLAP场景量身定制的分布式数据仓库产品,提供多维分析的功能,并可以和很多BI分析工具无缝对接,比如Tableau、Superset等。Kylin提供了前端平台,使用者可以在该平台上去定义自己的数据维度,Kylin会定时完整分析所需数据的预计算,形成多个Cube,并将之保存在HBase中,所以部署Kylin的时候需要HBase环境的支持。在数据与计算的时候,对其所在设备的资源消耗也比较大。

Apache Hive & Tez

官网:https://hive.apache.org/
官网:https://tez.apache.org/

Hive应该是最有名气的数据仓库工具了吧,他将HDFS上的数据组织成关系型数据库的形式,并提供了HiveSQL进行结构化查询,使得数据分析人员可以从传统的关系型数据库几乎无缝的过渡到HDFS上,但其个别函数和传统SQL还是有区别的,并且默认也不支持update和delete操作。但开发人员可以开发UDF,为HiveSQL扩充属于自己的功能函数。Hive本身的计算是基于MapReduce的,后来为了应对SparkSQL的出现,开发组推出了Hive on Spark,使得SQL的解释、分析、优化还是在Hive上,而执行阶段交由Spark去完成,从而以达到和SparkSQL近似的速度。

Tez是对Hive的另一项优化,为其引入了DAG的概念,增加任务并行度从而提升Hive的查询速度,但其本质仍旧是MapReduce,所以提升效果相比Hive on Spark来讲并不足够明显。

Apache Presto

官网:https://prestodb.io/

Presto是由facebook公司开发的一款分布式查询引擎,其主要特点是支持了非常多的Connector,从而实现在一个平台上连接多个数据源,并且可以将这些数据源的内容进行聚合计算,同时Presto也支持使用者自行开发新的Connector。并且Presto的计算过程全程是基于内存的,所以速度也是非常的快,但其实Presto也只是针对个别计算场景的性能优化会非常明显,网上有非常详细的分析文章。之前使用该工具是为了将离线数仓和实时数仓的数据进行联合查询,提供给实时数据平台使用。

在使用过程中我觉得有点不好的地方有三点。一是因为Presto基于内存计算,所以在资源紧张的情况下经常Crash导致任务失败。二是Presto任务为串行提交,所以会出现大任务阻塞小任务的情况出现。或许通过调参可以解决该问题吧,但没有再深入调研了。三是没有找到一个比较好的Web平台去查询Presto,网上有Hue通过PostgreSQL去链接Presto的方案,觉得有点麻烦,看上去比较成熟的Airpal平台也已不再更新了。最后使用了yanagishima,基本功能可以满足,但该平台没有用户管理功能,没法控制权限。

Apache Parquet & Orc

官网:https://parquet.apache.org/
官网:https://orc.apache.org/

Parquet和ORC是两种比较应用比较多的列式存储格式,列式存储不同于传统关系型数据库中行式存储的模式,这种主要的差别可能由于联机事务处理(OLTP)和联机分析处理(OLAP)的需求场景不同所造成的。在OLTP场景多是需要存储系统能满足快速的CRUD,这种操作对象都是以行为单位的。而在OLAP场景下,主要的特征是数据量巨大,而对实时性的要求并不高。而列式存储正式满足了这一需求特征。因为当数据以列的方式存储,在查询的时候引擎所读取的数据量将会更小,而且同一列的数据往往内容类似,更加便于进行数据压缩,但列式存储不适于更新和删除频繁的场景。Parquet和Orc同为列式存储,但他们的存储格式并不相同,这种差异造成了两者在存储不同类型的数据时所出现的性能差异,从网上的一些文章看,Orc的性能要比Parquet好一点,但是Impala是不支持Orc的,并且诸如Delta Lake这种数据湖产品,也是基于Parquet去做的。所以在选择采用哪种列式存储格式时,还是要根据自身的业务特点来决定。

Apache Griffin

官网:http://griffin.apache.org/

image

数据质量管理是数据系统中不可或缺的一环,初期的时候我们往往在ETL的各个阶段,加入一些简单的脚本来对生成的数据进行检查,而Apache Griffin也是一款这样的产品,它是由eBay开发的一个数据质量监控平台,后上升为Apache顶级项目。它提供了数据校验和报警的功能,也支持一些参数的可视化展现,相关的配置步骤都可以在Griffin的页面上完成。除了能完成一些最基本最简单的诸如是否存在异常值的数据检查,也能完成一些诸如最值、中值的数据统计需求等等,并且提供了专业的图表报告。

Apache Zeppelin

官网:http://zeppelin.apache.org/

image

Zeppelin是一款非常方便的在线笔记本,使用体验有点像Python的Jupyter NoteBook,可以从图中看到使用者可以在线执行,并绘制简单的图表。并且Zeppelin有了用户的概念,使得多人协同工作更加方便。Zeppelin支持了非常多的数据源,通过该平台,可以调用Hive、Cassandra、R、Kylin、Flink、Spark、ElasticSearch、HBase、Python、Shell等等。

我在使用时出现了Spark连接不稳的情况,需要使用者反复登录才可以。但总之我还是非常喜欢这款工具的。

Apache Superset

官网:http://superset.apache.org/

Superset是一款开源的可视化工具,使用该工具可以方便快速的创建数据Dashboard,同类型的产品还有Redash、Metabase,但调研过后个人还是更喜欢Superset一些。不过因为同期引入了Tableau,Superset并没有在实际项目中使用。

Tableau

官网:https://www.tableau.com/

image

和介绍的其它软件不同,Tableau是一款商用软件,根据购买的账号数量按年付费,之所以这里提到它,也是因为Tableau在BI领域内的名气着实有点高。Tableau分为Server端和本地客户端,使用者通过在客户端上的拖拽,即可快速生成一个数据Dashboard,使得Dashboard的开发工作从开发侧下放到了需求方。并且Tableau也提供了完备的用户管理功能,还支持了非常多的数据源。商业软件和开源软件比起来,无论功能完备性上还是使用体验上,的确都有明显的提升。我觉得唯一的难度可能就是如何把这个开发维护的工作在需求方落地吧,毕竟它还是有一些学习成本的。

TPCx-BB

官网:http://www.tpc.org/

TPC全称是事务处理性能委员会,是由数十家公司组成的非盈利性组织,负责订制各个行业的基准测试规范,阿里巴巴的MaxCompute和OceanBase都参加过该项测试,并取得了非常好的成绩。TPCx-BB是一个大数据基准测试工具,该工具模拟了一个网上零售的场景,首先工具会先向被测系统中插入预定好的表和数据,然后经过一系列的SQL操作,来对大数据集群的性能进行评估。TPC针对不同的被测场景,提供了很多现成的工具,可以供大家下载使用:
http://www.tpc.org/tpc_documents_current_versions/current_specifications5.asp

【云栖号在线课堂】每天都有产品技术专家分享!
课程地址:https://yqh.aliyun.com/live

立即加入社群,与专家面对面,及时了解课程最新动态!
【云栖号在线课堂 社群】https://c.tb.cn/F3.Z8gvnK

原文发布时间:2020-07-22
本文作者:李云翔(降云)
本文来自:“阿里技术公众号”,了解相关信息可以关注“阿里技术

网友评论

登录后评论
0/500
评论
云栖号资讯小编
+ 关注
所属团队号: 云栖号资讯