依赖环境
首先须要java反对
这里下载1.8版本的jdk
地址:https://blog.csdn.net/qq_2118...
下载完解压,并且在环境变量里申明JAVA_HOME
JAVA_HOME=/usr/local/java/jdk1.8.0_161iPATH=$PATH:$HOME/bin:$JAVA_HOME/bin:export JAVA_HOMEexport PATH
保留后应用 source 命令使环境变量失效
下载hadoop文件
https://mirrors.cnnic.cn/apac...
这里抉择2.10版本
同java程序一样解压到想搁置的目录
执行 XXX(这里是解压完的目录地址)/bin/hadoop version
能呈现版本号阐明解压正确了
进行单机版本的配置
1./etc/hadoop下,须要批改2个配置文件core-site.xml和hdfs-site.xml。
这个是core-site.xml
<configuration> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property></configuration>
这个是hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/hadoop/tmp/dfs/data</value> </property></configuration>
注:dfs.replication就是指备份的份数;dfs.namenode.name.dir和dfs.datanode.data.dir别离指名称节点和数据节点存储门路
2.执行初始化
回到Hadoop主目录,执行 ./bin/hdfs namenode -format
初始化完结最初这样证实胜利了
18/08/20 11:07:16 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 018/08/20 11:07:16 INFO namenode.NameNode: SHUTDOWN_MSG:/************************************************************SHUTDOWN_MSG: Shutting down NameNode at phenix/127.0.1.1************************************************************/
3.手动增加JAVA_HOME
在 XXX/etc/hadoop/hadoop-env.sh 这个文件里配置JAVA_HOME门路
export JAVA_HOME=/usr/local/java/jdk1.8.0_161
4.开启NameNode和DataNode守护过程:
执行./sbin/start-dfs.sh
5.开启yarn资源管理器:
执行./sbin/start-yarn.sh
最初执行 jps
有以下6个后台程序就证实启动胜利
[root@VM-0-16-centos hadoop-2.10.1]# jps14880 NameNode15220 SecondaryNameNode15384 ResourceManager15690 NodeManager20814 Jps15038 DataNode
将hadoop配置进配置文件
这样就能间接应用 hadoop 命令了
JAVA_HOME=/usr/local/java/jdk1.8.0_161iexport HADOOP_HOME=/usr/local/hadoop/hadoop-2.10.1PATH=$PATH:$HOME/bin:$JAVA_HOME/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATHexport JAVA_HOMEexport PATH
WebUi
http://localhost:50070 HDFS页面http://localhost:8088/cluster YARN页面
进行服务
./sbin/stop-dfs.sh./sbin/stop-yarn.sh
参考:https://blog.csdn.net/qq_3693...