共计 2081 个字符,预计需要花费 6 分钟才能阅读完成。
优于别人,并不高贵,真正的高贵应该是优于过去的自己
Hadoop 完全分布式环境搭建
编写分发文件脚本
应用场景如下:比如有三台主机 master1,slave1,slave2
如果简历完全分布式的集群就需要将文件从 master1 拷贝到 slave 从机上
那么可以使用 rsync 命令分发单个文件,也可以使用如下脚本分发文件夹或者文件
#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
# $# 代表获得命令行参数个数
pcount=$#
if((pcount==0)); then
echo no args;
exit;
fi
#2 获取文件名称
# $1 代表获得命令行第一个参数
p1=$1
fname=`basename $p1`
echo fname=$fname
#3 获取上级目录到绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir
#4 获取当前用户名称
user=`whoami`
#5 rsync 命令可以分发文件到指定主机
# 这里 slave 就是从机的机名
for((host=1; host<3; host++))
do
echo ------------------- slave$host --------------
rsync -rvl $pdir/$fname $user@slave$host:$pdir
done
集群规划
hadoop102 | hadoop103 | hadoop104 | |
---|---|---|---|
HDFS | NameNodeDataNode | DataNode | SecondaryNameNode<br/>DataNode |
YARN | NodeManager | ResourceManager<br/>NodeManager | NodeManager |
配置集群
配置文件都在 hadoop2.7.2/etc/hadoop 下
配置 core-site.xml
<!-- 指定 HDFS 中 NameNode 的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop102:9000</value>
</property>
<!-- 指定 Hadoop 运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>
配置 hadoop-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
配置 hdfs-site.xml
<!-- 指定副本数量 -->
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<!-- 指定 SecondaryNamenode 主机配置 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop104:50090</value>
</property>
配置 yarn-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
配置 yarn-site.xml
<!-- reducer 获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定 YARN 的 ResourceManager 的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop103</value>
</property>
配置 mapred-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
配置 mapred-site.xml
【需要拷贝 mapred-site.xml.template 然后重命名即可】
<!-- 指定 mr 运行在 yarn 上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
分发配置到集群中
# xsync 就是刚刚编写的分发脚本
xsync /opt/module/hadoop-2.7.2/
集群格式化
# 这部分必须没有报错才行,不然就重来一篇,必须在 hadoop 根目录下执行
hadoop namenode -format
集群启动测试
在主机 hadooop102 在 sbin 目录下,运行 start-dfs.sh 启动 HDFS
在主机 hadooop103 在 sbin 目录下,运行 start-yarn.sh 启动 yarn
然后使用 jps 查看进程即可
相关资料
本文配套 GitHub:https://github.com/zhutiansam…
本文配套公众号:FocusBigData
回复【大数据面经】【大数据面试经验】【大数据学习路线图】会有惊喜哦
正文完