hadoop_学习_02_Hadoop环境搭建(单机)

简介: 一、环境准备 1.说明 hadoop的下载来源有: 官方版本:http://archive.apache.org/dist/hadoop/ CDH版本:http://archive.cloudera.com/cdh5 企业应用一般选择CDH版本,因为比较稳定。

一、环境准备

1.说明

hadoop的下载来源有:

官方版本:http://archive.apache.org/dist/hadoop/

CDH版本:http://archive.cloudera.com/cdh5

企业应用一般选择CDH版本,因为比较稳定。

若决定使用CDH版本,则要保证相关软件的CDH版本相同,如 选择 hadoop-2.6.0-cdh5.9.3  与  hbase-1.2.0-cdh5.9.3

 

2.环境准备

操作系统 : linux CentOS 6.8

jdk:1.7

cdh版本为: 5.9.3

hadoop-2.6.0-cdh5.9.3 

 

二、服务器基本配置

1.配置主机名

(1)修改 hostname

sudo vim /etc/sysconfig/network

 将HOSTNAME修改为 rayner (改成你自己的,所有的地方一致即可)

 

(2)映射主机 ip 与主机名

sudo vim /etc/hosts

加入以下配置:

192.168.1.102  rayner

 

 

 2.关闭防火墙

关闭防火墙,这样就可以在本机 window 中访问虚拟机的所有端口了

CentOS 7版本以下输入:

service   iptables stop

CentOS 7 以上的版本输入:

systemctl   stop   firewalld.service

 

3.时间设置

输入:

date

查看服务器时间是否一致,若不一致则更改

更改时间命令

date -s ‘MMDDhhmmYYYY.ss’

 

 

三、Hadoop下载

1.hadoop下载地址

http://archive.apache.org/dist/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz

 

2.下载hadoop

wget http://archive.apache.org/dist/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz

 

3.解压hadoop

tar -zxvf  hadoop-2.6.0.tar.gz

 

4.创建文件夹

sudo mkdir /ray/hadoop 
sudo mkdir /ray/hadoop/tmp 
sudo mkdir /ray/hadoop/var 
sudo mkdir /ray/hadoop/dfs 
sudo mkdir /ray/hadoop/dfs/name 
sudo mkdir /ray/hadoop/dfs/data

 

 

四、Hadoop环境配置

1.配置profile文件-环境变量

 (1)编辑 profile 文件

sudo vim /etc/profile

 

(2)设置 HADOOP_HOME ,并将其添加到path中

# 1. java
export JAVA_HOME=/usr/java/jdk1.7.0_80
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

# 2. Tomcat
export CATALINA_HOME=/developer/apache-tomcat-7.0.73

# 3. Maven
export MAVEN_HOME=/developer/apache-maven-3.0.5

# 4. hadoop
export HADOOP_HOME=/developer/hadoop-2.6.0

#Path
export PATH=$HADOOP_HOME/bin:$MAVEN_HOME/bin:$CATALINA_HOME/bin:$JAVA_HOME/bin:$PATH
export LC_ALL=en_US.UTF-8

 

 

 

(3)使配置生效

source /etc/profile

 

2.配置 hadoop-env.sh

 (1) 进入路径:

cd  /developer/hadoop-2.6.0/etc/hadoop

 

(2) 编辑 hadoop-env.sh

sudo vim hadoop-env.sh

 

(3) 配置JAVA_HOME

${JAVA_HOME} 修改为自己的JDK路径  ,即

 将

export   JAVA_HOME=${JAVA_HOME}

修改为:

export JAVA_HOME=/usr/java/jdk1.7.0_80

 

 

3.配置 core-site.xml 

(1)编辑 core-site.xml

sudo vim core-site.xml

 

(2)在 configuration 节点中 加入以下配置

注意要将value替换成自己的

<!--1. tmp -->
<property>
    <name>hadoop.tmp.dir</name>
    <value>/ray/hadoop/tmp</value>
    <description>Abase for other temporary directories.</description>
</property>

<!--2. default.name -->
<property>
    <name>fs.default.name</name>
    <value>hdfs://rayner:9000</value>
</property>

 

 

4.配置 hdfs-site.xml

(1)编辑 hdfs-site.xml

sudo vim hdfs-site.xml

 

(2)在 configuration 节点中 加入以下配置

<!--1. name -->
<property>
   <name>dfs.name.dir</name>
   <value>/ray/hadoop/dfs/name</value>
   <description>Path on the local filesystem where theNameNode stores the namespace and transactions logs persistently.</description>
</property>

<!--2. data -->
<property>
   <name>dfs.data.dir</name>
   <value>/ray/hadoop/dfs/data</value>
   <description>Comma separated list of paths on the localfilesystem of a DataNode where it should store its blocks.</description>
</property>

<!--3. replication -->
<property>
   <name>dfs.replication</name>
   <value>2</value>
</property>

<!--4. permissions -->
<property>
      <name>dfs.permissions</name>
      <value>false</value>
      <description>need not permissions</description>
</property>

 

说明:dfs.permissions配置为false后,可以允许不要检查权限就生成dfs上的文件,

方便倒是方便了,但是你需要防止误删除,请将它设置为true,或者直接将该property节点删除,因为默认就是true。

 

5.配置 mapred-site.xml

如果没有 mapred-site.xml 该文件,就复制mapred-site.xml.template文件并重命名为 mapred-site.xml

 (1) 编辑 mapred-site.xml

sudo vim mapred-site.xml

 

(2) 在 configuration 节点中 加入以下配置

<!--1. job -->
<property>
    <name>mapred.job.tracker</name>
    <value>rayner:9001</value>
</property>

<!--2. local -->
<property>
      <name>mapred.local.dir</name>
       <value>/ray/hadoop/var</value>
</property>

<!--3. framework -->
<property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
</property>

 

 

 

 

五、hadoop 常用命令

1.格式化namenode

第一次启动Hadoop需要初始化
切换到 /home/hadoop/hadoop2.8/bin目录下输入

hadoop namenode -format

 这一步可能会出现异常:

Unable to determine local hostname -falling back to "localhost"
java.net.UnknownHostException: rayner: rayner

解决方法参见: hadoop_异常_01_ Unable to determine address of the host-falling back to "localhost" address java.net.UnknownHostException: rayner

 

2、启动hadoop

启                       /developer/hadoop-2.6.0/sbin/start-all.sh
停                       /developer/hadoop-2.6.0/sbin/stop-all.sh

 

(1)进入sbin目录,执行以下命令

/developer/hadoop-2.6.0/sbin/start-all.sh

(2)使用jps命令查看启动成功效果

 

 (2)浏览器输入: 127.0.0.1:8088/cluster  或者  192.168.1.102:8088/cluster  ,会出现下图

 

(3)浏览器输入:127.0.0.1:50070   或者 192.168.1.102:50070

 

 

 

 

2.查看hadoop下有哪些文件

hadoop fs -ls /

 

 

 

六、参考资料

1.大数据学习系列之一 ----- Hadoop环境搭建(单机)

 

 

 

下一篇:base_学习_01_HBase环境搭建(单机)

 

目录
相关文章
|
6月前
|
存储 分布式计算 Hadoop
基于docker的Hadoop环境搭建与应用实践(脚本部署)
本文介绍了Hadoop环境的搭建与应用实践。对Hadoop的概念和原理进行了简要说明,包括HDFS分布式文件系统和MapReduce计算模型等,主要通过脚本的方式进行快捷部署,在部署完成后对HDFS和mapreduce进行了测试,确保其功能正常。
|
7月前
|
分布式计算 Hadoop 大数据
Hadoop学习:深入解析MapReduce的大数据魔力之数据压缩(四)
Hadoop学习:深入解析MapReduce的大数据魔力之数据压缩(四)
|
7月前
|
分布式计算 Hadoop 大数据
Hadoop学习:深入解析MapReduce的大数据魔力(三)
Hadoop学习:深入解析MapReduce的大数据魔力(三)
|
12天前
|
分布式计算 Hadoop 大数据
Hadoop【hadoop学习大纲完全总结01+02+03+04+05】【自学阶段整理的xmind思维导图分享】【点击可放大看高清】
【4月更文挑战第5天】Hadoop【hadoop学习大纲完全总结01+02+03+04+05】【自学阶段整理的xmind思维导图分享】【点击可放大看高清】
35 5
|
7月前
|
存储 分布式计算 Hadoop
Hadoop学习:深入解析MapReduce的大数据魔力(二)
Hadoop学习:深入解析MapReduce的大数据魔力(二)
|
3月前
|
分布式计算 Hadoop Java
Hadoop环境搭建
Hadoop环境搭建
58 1
|
7月前
|
存储 分布式计算 Hadoop
Hadoop学习:深入解析MapReduce的大数据魔力(一)
Hadoop学习:深入解析MapReduce的大数据魔力(一)
108 0
|
7月前
|
存储 XML 分布式计算
Hadoop学习指南:探索大数据时代的重要组成——HDFS(下)
Hadoop学习指南:探索大数据时代的重要组成——HDFS(下)
|
7月前
|
分布式计算 Hadoop Java
Hadoop学习指南:探索大数据时代的重要组成——运行环境搭建
Hadoop学习指南:探索大数据时代的重要组成——运行环境搭建
|
7月前
|
分布式计算 Hadoop Java
Hadoop环境搭建
Hadoop环境搭建