乐趣区

HDFS篇03HDFS客户端操作-开发环境准备

存储越困难,提取越容易

HDFS 客户端操作 — 开发环境准备

步骤一:编译对应 HadoopJar 包,配置 Hadoop 变量

步骤二:创建 Maven 工程,导入 pom 依赖

<dependencies>
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>RELEASE</version>
        </dependency>
        <dependency>
            <groupId>org.apache.logging.log4j</groupId>
            <artifactId>log4j-core</artifactId>
            <version>2.8.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.7.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>2.7.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs</artifactId>
            <version>2.7.2</version>
        </dependency>
</dependencies>

步骤三:创建日志文件

在 resources 目录下创建 log4j.properties,输入如下信息

log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n

步骤四:创建 HDFSClient 类

public class HDFSClient{    

@Test
public void testMkdirs() throws IOException, InterruptedException, URISyntaxException{
        
        // 1 获取文件系统
        Configuration configuration = new Configuration();

        // 2 连接集群
        FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "zhutiansama");
        
        // 3 创建目录
        fs.mkdirs(new Path("/1108/daxian/banzhang"));
        
        // 4 关闭资源
        fs.close();}
}

​ 客户端去操作 HDFS 时,是有一个用户身份的。默认情况下,HDFS 客户端 API 会从 JVM 中获取一个参数来作为自己的用户身份:-DHADOOP_USER_NAME=zhutiansama,zhutiansama 为用户名称。至此 Hadoop 的 Win 开发环境搭建完成,大家可以通过 API 去操作 Hadoop 啦

相关资料

本文配套 GitHub:https://github.com/zhutiansam…

退出移动版