共计 2840 个字符,预计需要花费 8 分钟才能阅读完成。
体验平台简介
面向开发者和中小企业打造的一站式、全云端的开发平台,关上浏览器就能够开发、调试、上线,所测即所得,并联合无服务器的模式,从新定义云原生时代的研发工作方法论。旨在升高开发者上手老本和中小企业的启动老本、经营老本、以及突发流量带来的运维危险。
教程介绍
本教程介绍如何在 Linux 实例上疾速搭建一个 Hadoop 伪分布式环境。
场景体验
场景内容选自 阿里云体验实验室
阿里云体验实验室 提供一台配置了 CentOS 7.7 的 ECS 实例(云服务器)。通过本教程的操作,您能够基于 ECS 实例搭建 Hadoop 伪分布式环境。
阿里云场景免费资源:
https://developer.aliyun.com/adc/scenario/cf48abdfe41e4187be079722b9dc15b6
背景常识
Apache Hadoop
Apache Hadoop 软件库是一个框架,该框架容许应用简略的编程模型跨计算机集群对大型数据集进行分布式解决。它旨在从单个服务器扩大到数千台机器,每台机器都提供本地计算和存储。库自身不是设计用来依附硬件来提供高可用性,而是旨在检测和解决应用程序层的故障,因而能够在计算机集群的顶部提供高可用性的服务,而每台计算机都容易呈现故障。
步骤一:装置 JDK
1. 执行以下命令,下载 JDK1.8 安装包。
wget https://download.java.net/openjdk/jdk8u41/ri/openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz
2. 执行以下命令,解压下载的 JDK1.8 安装包。
tar -zxvf openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz
3. 执行以下命令,挪动并重命名 JDK 包。
mv java-se-8u41-ri/ /usr/java8
4. 执行以下命令,配置 Java 环境变量。
echo 'export JAVA_HOME=/usr/java8' >> /etc/profile
echo 'export PATH=$PATH:$JAVA_HOME/bin' >> /etc/profile
source /etc/profile
5. 执行以下命令,查看 Java 是否胜利装置。
java -version
如果返回以下信息,则示意装置胜利。
步骤二:装置 Hadoop
1. 执行以下命令,下载 Hadoop 安装包。
wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.9.2/hadoop-2.9.2.tar.gz
2. 执行以下命令,解压 Hadoop 安装包至 /opt/hadoop。
tar -zxvf hadoop-2.9.2.tar.gz -C /opt/
mv /opt/hadoop-2.9.2 /opt/hadoop
3. 执行以下命令,配置 Hadoop 环境变量。
echo 'export HADOOP_HOME=/opt/hadoop/' >> /etc/profile
echo 'export PATH=$PATH:$HADOOP_HOME/bin' >> /etc/profile
echo 'export PATH=$PATH:$HADOOP_HOME/sbin' >> /etc/profile
source /etc/profile
4. 执行以下命令,批改配置文件 yarn-env.sh 和 hadoop-env.sh。
echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/yarn-env.sh
echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/hadoop-env.sh
5. 执行以下命令,测试 Hadoop 是否装置胜利。
hadoop version
如果返回以下信息,则示意装置胜利。
步骤三:配置 Hadoop
1. 批改 Hadoop 配置文件 core-site.xml。
- a. 执行以下命令开始进入编辑页面。
vim /opt/hadoop/etc/hadoop/core-site.xml
- b. 输出 i 进入编辑模式。c. 在 <configuration></configuration> 节点内插入如下内容。
<property>
<name>hadoop.tmp.dir</name>
<value>file:/opt/hadoop/tmp</value>
<description>location to store temporary files</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
- d. 按 Esc 键退出编辑模式,输出:wq 保留退出。
2. 批改 Hadoop 配置文件 hdfs-site.xml。
a. 执行以下命令开始进入编辑页面。
vim /opt/hadoop/etc/hadoop/hdfs-site.xml
b. 输出 i 进入编辑模式。
c. 在 <configuration></configuration> 节点内插入如下内容。
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/opt/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/opt/hadoop/tmp/dfs/data</value>
</property>
d. 按 Esc 键退出编辑模式,输出:wq 保留退出。
步骤四:配置 SSH 免密登录
1. 执行以下命令,创立公钥和私钥。
ssh-keygen -t rsa
2. 执行以下命令,将公钥增加到 authorized_keys 文件中。
cd .ssh
cat id_rsa.pub >> authorized_keys
步骤五:启动 Hadoop
1. 执行以下命令,初始化 namenode。
hadoop namenode -format
2. 顺次执行以下命令,启动 Hadoop。
顺次执行以下命令,启动 Hadoop。
start-yarn.sh
3. 启动胜利后,执行以下命令,查看已胜利启动的过程。
jps
4. 关上浏览器拜访 http://<ECS 公网 IP>:8088 和 http://<ECS 公网 IP>:50070,显示如下界面则示意 Hadoop 伪分布式环境搭建实现。
以上就是【搭建 Hadoop 环境】的所有教程了
更多体验场景请至开发者实验室:https://developer.aliyun.com/adc/labs/