1、启动 Hadoop
sbin/start-all.ssh
2、敞开 Hadoop
sbin/stop-all.sh
3、查看指定目录下内容
hadoop dfs –ls /user/hadoop/student
4、关上某个已存在文件
hadoop dfs -cat /user/hadoop/student/000000_0
5、将本地文件存储至 hadoop
hadoop fs -put /home/xuehengjie/xue/data/hdfs.txt /user/hadoop/hdfs
6、将本地文件夹存储至 hadoop
hadoop fs -put /home/xuehengjie/xue/data /user/hadoop/data
7、将 hadoop 上某个文件 down 至本地已有目录下
hadoop fs -get /user/hadoop/hdfs/hdfs.txt /home/xuehengjie/xue/data/hadoop
8、删除 hadoop 上指定文件
hadoop fs -rm /user/hadoop/res.txt
7、删除 hadoop 上指定文件夹(蕴含子目录等)
hadoop fs –rmr /user/hadoop/res
hadoop fs -rm -R /user/root/output
8、在 hadoop 指定目录内创立新目录
hadoop fs –mkdir /user/hadoop/hive
9、在 hadoop 指定目录下新建一个空文件
hadoop fs -touchz /user/new.txt
10、将 hadoop 上某个文件重命名
hadoop fs –mv /user/test.txt /user/ok.txt
11、将 hadoop 指定目录下所有内容保留为一个文件,同时 down 至本地
hadoop dfs –getmerge /user /home/t
12、将正在运行的 hadoop 作业 kill 掉
hadoop job –kill [job-id]
hadoop