集群布局

HDFS: 1个NameNode + n个DataNode + 1个2NN
YARN: 1个ResourceManager + n个NodeManager
hadoop1 hadoop2 hadoop3
DN DN DN
NM NM NM
NN RM 2NN

筹备工作

筹备3台虚拟机,能够新建1台,而后克隆2台

1.批改主机名

vi /etc/sysconfig/network,三台机器HOSTNAME别离改为hadoop1,hadoop2,hadoop3

2.设置动态ip

在hadoop1机器上
a.输出命令vi /etc/sysconfig/network-scripts/ifcfg-eth0
批改
BOOTPROTO=static
ONBOOT=yes
增加
IPADDR=192.168.148.11 - - >这是你本人设置的IP地址,必须合乎规定
GATEWAY=192.168.148.2 - - >这是网关地址
NETMASK=255.255.255.0 - - >这是子网掩码
DNS1=192.168.148.2 - - >写成网关地址
b.重启虚拟机
hadoop2,hadoop3反复以上操作,ip别离为
IPADDR=192.168.148.12
IPADDR=192.168.148.13

3.敞开防火墙

三台机器上
service iptables stop
chkconfig iptables off

4.批改hosts映射

三台机器上
192.168.148.11 hadoop1
192.168.148.12 hadoop2
192.168.148.13 hadoop3

5.配置免密登录

在hadoop1上
ssh-keygen -t rsa,回车三下
而后别离输出
ssh-copy-id hadoop1
ssh-copy-id hadoop2
ssh-copy-id hadoop3

6.上传源码包并解压

在hadoop1机器上
mkdir /opt/software
mkdir /opt/module
上传jdk,hadoop的tar.gz到software,解压至module
tar -zxvf jdk-8u121-linux-x64.tar.gz -C /opt/module/
tar -zxvf hadoop-2.7.2.tar.gz -c /opt/module/

7.分布式集群配置文件

在hadoop1机器上
cd /opt/hadoop-2.7.2/
cd /etc/hadoop/
批改以下四个文件:
a.vi core-site.xml

<configuration><!-- 指定HDFS中NameNode的地址 --><property>  <name>fs.defaultFS</name>  <value>hdfs://hadoop1:9000</value></property><!-- 指定Hadoop运行时产生文件的存储目录 --><property>  <name>hadoop.tmp.dir</name>  <value>/opt/module/hadoop-2.7.2/data/tmp</value></property></configuration>

b.vi hadoop-site.xml

<configuration><!--指定Hadoop辅助名称节点主机配置 -->   <property>      <name>dfs.namenode.secondary.http-address</name>      <value>hadoop3:50090</value>   </property></configuration><configuration>

c.vi yarn-site.xml

<!-- reducer获取数据的形式 -->    <property>       <name>yarn.nodemanager.aux-services</name>       <value>mapreduce_shuffle</value>    </property><!-- 指定YARN的ResourceManager的地址 -->    <property>        <name>yarn.resourcemanager.hostname</name>        <value>hadoop2</value>    </property></configuration>

d.vi mapred-site.xml

<configuration>   <!-- 指定mr运行在yarn上 -->   <property>      <name>mapreduce.framework.name</name>      <value>yarn</value>   </property></configuration>
8.复制文件到其余节点

在hadoop1机器上
scp -r /opt/module/. hadoop2:/opt/module
scp -r /opt/module/. hadoop3:/opt/module

9.配置java hadoop环境变量

在三台机器上
vi /etc/profile

JAVA_HOME=/opt/module/jdk1.8.0_121HADOOP_HOME=/opt/module/hadoop-2.7.2PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbinexport JAVA_HOME HADOOP_HOME

source /etc/profile

10.格式化NameNode

在hadoop1机器上,如果集群是第一次启动,须要格式化NameNode
hadoop namenode -format

集群启动

集群单点启动

hadoop1机器上启动NN
hadoop-daemon.sh start namenode
在hadoop1 hadoop2 hadoop3上启动DN
hadoop-daemon.sh start datanode
在hadoop3上启动2NN
hadoop-daemon.sh start secondarynamenode
在hadoop2上启动RM
yarn-daemon.sh start resourcemanager
在hadoop1 hadoop2 hadoop3上启动NM
yarn-daemon.sh start nodemanager

群起集群

在hadoop2配置slaves
cd /opt/module/hadoop-2.7.2/etc/hadoop
vi slaves
增加
hadoop1
hadoop2
hadoop3
相干命令:
start-dfs.sh
stop-dfs.sh
start-yarn.sh
stop-yarn.sh

可能呈现的JAVA_HOME is not set and could not be found的问题,解决如下:
在三台机器的/opt/module/hadoop-2.7.2/etc/hadoop
vi hadoop-env.sh
增加export JAVA_HOME=/opt/module/jdk1.8.0_121

统计单词数测试

test文件中蕴含若干单词,统计单词数测试如下:
hadoop fs -mkdir /wcinput
hadoop fs -put test /wcinput
hadoop jar hadoop hadoop-mapreduce-examples-2.7.2.jar
wordcount /wcinput /wcoutput