关于后端:hadoop

37次阅读

共计 794 个字符,预计需要花费 2 分钟才能阅读完成。

1、启动 Hadoop

sbin/start-all.ssh

2、敞开 Hadoop

sbin/stop-all.sh

3、查看指定目录下内容

hadoop dfs –ls /user/hadoop/student

4、关上某个已存在文件

hadoop dfs -cat /user/hadoop/student/000000_0

5、将本地文件存储至 hadoop

hadoop fs -put /home/xuehengjie/xue/data/hdfs.txt /user/hadoop/hdfs

6、将本地文件夹存储至 hadoop

hadoop fs -put /home/xuehengjie/xue/data /user/hadoop/data

7、将 hadoop 上某个文件 down 至本地已有目录下

hadoop fs -get /user/hadoop/hdfs/hdfs.txt /home/xuehengjie/xue/data/hadoop

8、删除 hadoop 上指定文件

hadoop fs -rm /user/hadoop/res.txt

7、删除 hadoop 上指定文件夹(蕴含子目录等)

hadoop fs –rmr /user/hadoop/res

hadoop fs -rm -R /user/root/output

8、在 hadoop 指定目录内创立新目录

hadoop fs –mkdir /user/hadoop/hive

9、在 hadoop 指定目录下新建一个空文件

hadoop fs -touchz /user/new.txt

10、将 hadoop 上某个文件重命名

hadoop fs –mv /user/test.txt /user/ok.txt

11、将 hadoop 指定目录下所有内容保留为一个文件,同时 down 至本地

hadoop dfs –getmerge /user /home/t

12、将正在运行的 hadoop 作业 kill 掉

hadoop job –kill [job-id]

hadoop

正文完
 0