1、启动Hadoop
sbin/start-all.ssh
2、敞开Hadoop
sbin/stop-all.sh
3、查看指定目录下内容
hadoop dfs –ls /user/hadoop/student
4、关上某个已存在文件
hadoop dfs -cat /user/hadoop/student/000000_0
5、将本地文件存储至hadoop
hadoop fs -put /home/xuehengjie/xue/data/hdfs.txt /user/hadoop/hdfs
6、将本地文件夹存储至hadoop
hadoop fs -put /home/xuehengjie/xue/data /user/hadoop/data
7、将hadoop上某个文件down至本地已有目录下
hadoop fs -get /user/hadoop/hdfs/hdfs.txt /home/xuehengjie/xue/data/hadoop
8、删除hadoop上指定文件
hadoop fs -rm /user/hadoop/res.txt
7、删除hadoop上指定文件夹(蕴含子目录等)
hadoop fs –rmr /user/hadoop/res
hadoop fs -rm -R /user/root/output
8、在hadoop指定目录内创立新目录
hadoop fs –mkdir /user/hadoop/hive
9、在hadoop指定目录下新建一个空文件
hadoop fs -touchz /user/new.txt
10、将hadoop上某个文件重命名
hadoop fs –mv /user/test.txt /user/ok.txt
11、将hadoop指定目录下所有内容保留为一个文件,同时down至本地
hadoop dfs –getmerge /user /home/t
12、将正在运行的hadoop作业kill掉
hadoop job –kill [job-id]
hadoop