《Hadoop MapReduce实战手册》一2.3 添加一个新的DataNode

简介:

本节书摘来异步社区《Hadoop MapReduce实战手册》一书中的第2章,第2.3节,作者: 【美】Srinath Perera , Thilina Gunarathne 译者: 杨卓荦 责编: 杨海玲,更多章节内容可以访问云栖社区“异步社区”公众号查看。

2.3 添加一个新的DataNode

Hadoop MapReduce实战手册
本节将展示如何在不重启整个集群的情况下将新节点添加到现有的HDFS集群中,以及增加新的节点后,如何强制HDFS重新达到平衡。

准备工作
请按照下列步骤向HDFS集群中添加DataNode节点。

  1. 在新节点上安装Hadoop,并且复制现有的Hadoop集群的配置文件。可以使用rsync从另一个节点复制Hadoop配置。例如:
>rsync -a <master_node_ip>:hadoop-1.0.x/conf $HADOOP_HOME/conf
  1. 确保Hadoop/HDFS集群的主节点可以对新节点进行SSH免密码登录。如果不打算使用bin/*.sh脚本从主节点启动/停止集群,那么可以选择SSH免登录设置。

操作步骤
下面的步骤将展示如何将新的DataNode添加到现有的HDFS集群。

  1. 将新节点的IP或DNS地址添加到主节点的$HADOOP_HOME/conf/slaves文件。
  2. 通过使用以下命令在新添加的从节点上启动DataNode进程。
>bin/hadoop-deamon.sh start datanode

技巧

也可以使用$HADOOP_HOME/bin/start-dfs.sh脚本从主节点启动新加入的从节点的DataNode守护进程。如果要向集群中添加多个新的DataNode,那么这样做会非常有益。

  1. 在新加的从节点上,检查$HADOOP_HOME/logs/hadoop--datanode-.log是否有任何错误信息。

前面的步骤既适用于添加新节点,又适用于重新加入的因崩溃而重新启动的节点。

更多参考
同样,你也可以添加一个新的节点到Hadoop MapReduce集群。

  1. 要在新节点上启动TaskTracker必须使用以下命令:
>bin/hadoop-deamon.sh start tasktracker
  1. 在新加的从节点上,检查$HADOOP_HOME/logs/hadoop--tasktracker-.log是否有任何错误信息。

HDFS再平衡
当您添加新节点时,HDFS不会自动重新平衡。然而,HDFS提供了一个手动调用的重新平衡(reblancer)工具。这个工具将整个集群中的数据块分布调整到一个可人工配置的百分比阈值。如果在其他现有的节点上有空间存储问题,再平衡将是非常有益的。

  1. 执行以下命令。可选参数-threshold指定了磁盘容量的余量百分比,用来判定一个节点的利用率是过低还是过高。一个利用不足的数据节点其利用率低`于平均利用率−阈值。过度利用的数据节点其利用率高于平均利用率+阈值。该参数设置的越小,整个集群越平衡,但会花费更多的时间进行再平衡操作。默认阈值为10%。
>bin/start-balancer.sh –threshold 15
  1. 再平衡操作可以通过执行bin/stop-balancer.sh命令手动停止。
  2. 再平衡操作的日志信息存储在$HADOOP_HOME/logs/hadoop--balancer.out文件中。
相关文章
|
4月前
|
分布式计算 Hadoop
Hadoop系列 mapreduce 原理分析
Hadoop系列 mapreduce 原理分析
36 1
|
3月前
|
存储 分布式计算 监控
Hadoop的JobTracker和TaskTracker在MapReduce中的作用是什么?
Hadoop的JobTracker和TaskTracker在MapReduce中的作用是什么?
48 0
|
4月前
|
存储 SQL 分布式计算
Hadoop(HDFS+MapReduce+Hive+数仓基础概念)学习笔记(自用)
Hadoop(HDFS+MapReduce+Hive+数仓基础概念)学习笔记(自用)
249 0
|
4月前
|
存储 分布式计算 资源调度
干翻Hadoop系列文章【03】:MapReduce概念详解
干翻Hadoop系列文章【03】:MapReduce概念详解
|
4月前
|
存储 分布式计算 搜索推荐
【大数据技术Hadoop+Spark】MapReduce之单词计数和倒排索引实战(附源码和数据集 超详细)
【大数据技术Hadoop+Spark】MapReduce之单词计数和倒排索引实战(附源码和数据集 超详细)
44 0
|
4天前
|
存储 分布式计算 Hadoop
大数据处理架构Hadoop
【4月更文挑战第10天】Hadoop是开源的分布式计算框架,核心包括MapReduce和HDFS,用于海量数据的存储和计算。具备高可靠性、高扩展性、高效率和低成本优势,但存在低延迟访问、小文件存储和多用户写入等问题。运行模式有单机、伪分布式和分布式。NameNode管理文件系统,DataNode存储数据并处理请求。Hadoop为大数据处理提供高效可靠的解决方案。
22 2
|
4天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
6天前
|
SQL 分布式计算 Hadoop
利用Hive与Hadoop构建大数据仓库:从零到一
【4月更文挑战第7天】本文介绍了如何使用Apache Hive与Hadoop构建大数据仓库。Hadoop的HDFS和YARN提供分布式存储和资源管理,而Hive作为基于Hadoop的数据仓库系统,通过HiveQL简化大数据查询。构建过程包括设置Hadoop集群、安装配置Hive、数据导入与管理、查询分析以及ETL与调度。大数据仓库的应用场景包括海量数据存储、离线分析、数据服务化和数据湖构建,为企业决策和创新提供支持。
35 1
|
23天前
|
消息中间件 SQL 分布式计算
大数据Hadoop生态圈体系视频课程
熟悉大数据概念,明确大数据职位都有哪些;熟悉Hadoop生态系统都有哪些组件;学习Hadoop生态环境架构,了解分布式集群优势;动手操作Hbase的例子,成功部署伪分布式集群;动手Hadoop安装和配置部署;动手实操Hive例子实现;动手实现GPS项目的操作;动手实现Kafka消息队列例子等
18 1
大数据Hadoop生态圈体系视频课程
|
4月前
|
分布式计算 资源调度 搜索推荐
《PySpark大数据分析实战》-02.了解Hadoop
大家好!今天为大家分享的是《PySpark大数据分析实战》第1章第2节的内容:了解Hadoop。
44 0
《PySpark大数据分析实战》-02.了解Hadoop

相关实验场景

更多