大数据学习~Hadoop初识三Yarn模式

  1. 云栖社区>
  2. LuckQI>
  3. 博客>
  4. 正文

大数据学习~Hadoop初识三Yarn模式

技术小能手 2018-06-28 17:41:35 浏览14552
展开阅读全文

我们都知道在如今的Hadoop中主要有三个重要的执行管理器。一个HDFS,一个MapReduce,还有就是我们今天要看的 YARN。

2.0以前的Hadoop

在2.0以前的hadoop中是没有Yarn这个模式管理的。大部分都是独自作战。Hbase做自己的,Spark也是做自己的,等等。这样的话就会造成资源的浪费,不能充分的把资源给利用上。特别是在1.x的版本上容易出现单点故障,不容易扩展的情况。

image

在这里Client的请求都会通过1个JobTracker来分发任务,如果我们的这个JobTracker出现异常。整个集群就没法参与正常工作。

在JobTracker 过多的TaskScheduler 集中过来,容易造成内存,cpu不够用的情况。增加了任务执行失败的风险。
image

因为这些情况,随着发展,Hadoop需要更新的一代管理引擎来帮助我们管理集群-YARN引擎

在2.0的YARN

在新的业务驱动下,发展起来的YARN替代原先的模式。将原先浪费的资源进行合并,共同管理建立在一个模式管理下
image

新的YARN模式如下

image

  1. 从图中我们可以看到 原先的JobTracker 被拆分成 资源管理和任务调度监控。
  2. 我们来看下如今的架构

ResourceManager : 在集群中提供资源的统一管理和调度。并且接收来自客户端的请求。同时不停的接收来自 DataNode上的心跳信息。并且对集群进行管理。

NodeManager :

在整个集群中会有多个该节点。主要用来维护自己节点上资源的管理和使用。

定时向ResourceManager 汇报自己资源的使用情况。并且 接收来自ResourceManager 各种命令

启动我们在图中看到的ApplicationMaster.

ApplicationMaster :

该ApplicationMaster 对应我们提交的程序,该程序可以来自Spark,Hbase , MapReduce.该master向管理器YARN申请资源。然后供应用程序使用。

分配任务给接下来的Container 。包含启动,停止任务。

Container

封装了CPU ,Memory 等资源的容器。

Client

通过client来提交任务,进行任务的开始与结束。并且查询任务的执行进度等情况。

image

了解了这几个功能名称的作用,我们来看下整个任务执行流程是怎么样的。

从Client端发送一个 请求到我们的ResourceManager 上。其中内容应该包含ApplicationMaster,ApplicationMaster的启动命令。本身应用程序的内容。

ResourceManager 分配任务到NodeManager上

NodeManager根据配置信息进行处理启动ApplicationMaster 。

注册到ResourceManager,并且申请到资源返回到我们的ApplicationMaster 上。

根据申请到的资源注册到NodeManger上。

NodeManager 启动对应的Container上。在这之间会通过心跳进行任务汇报。然后任务汇报后。进行任务管理。

总结

整个yarn的流程和新的结构大概就是如此。新模式解决了原先的单点问题。并且挺高了高可用性和扩展性。一套集群环境就能供多个应用程序使用。YARN模式帮助我们解决掉了资源管理的问题,程序员关注业务开发即可。

原文发布时间为:2018-06-22
本文作者:mengrui LuckQI
本文来自云栖社区合作伙伴“LuckQI”,了解相关信息可以关注“LuckQI”。

网友评论

登录后评论
0/500
评论
技术小能手
+ 关注
所属云栖号: LuckQI