1.上傳文件
1)hadoop fs -put words.txt /path/to/input/
2)hdfs dfs -put words.txt /path/wc/input/
2.獲取hdfs中的文件
hadoop fs -get /path/wc/input/words.txt
3.合并下載多個(gè)文件
hadoop fs -getmerge /path/wc/input/words.txt /path/wc/input/words2.txt
4.查看某目錄下所含文件
1)hadoop fs -ls /path/wc/input/
2)hadoop fs -ls hdfs://node1:9000/path/wc/input/
5.查看文件內(nèi)容
hadoop fs -cat /path/wc/input/words.txt
6.顯示一個(gè)文件的末尾
hadoop fs -tail /weblog/test.log
7.以字符形式打印一個(gè)文件的內(nèi)容
hadoop fs -text /weblog/test.log
8.在hdfs上創(chuàng)建目錄
hadoop fs -mkdir -p /aaa/bbb/cc/dd
9.從本地剪切粘貼到hdfs
示例:hadoop fs -put /aaa/jdk.tar.gz /bbb/jdk/tar/gz/。示例:hadoop fs -put /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2。示例: hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2。
10.從hdfs剪切粘貼到本地
示例:hadoop fs -put /aaa/jdk.tar.gz /bbb/jdk/tar/gz/。示例:hadoop fs -put /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2。示例: hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2。
11.從本地文件系統(tǒng)中拷貝文件到hdfs路徑去
hadoop fs -copyFromLocal /home/hadoop/a.txt /aaa/bbb/cc/dd
12.從hdfs拷貝到本地
hadoop fs -copyToLocal /aaa/bbb/cc/dd /home/hadoop/a.txt
13.從hdfs的一個(gè)路徑拷貝hdfs的另一個(gè)路徑
hadoop fs -cp /aaa/test1.txt /bbb/test2.txt
14.在hdfs目錄中移動(dòng)文件
hadoop fs -mv /aaa/jdk.tar.gz /
15.追加一個(gè)文件到已經(jīng)存在的文件末尾
示例:hadoop fs -appendtofile ./hello.txt hdfs://hadoop-server01:9000/hello.txt。實(shí)例:hadoop fs -ls hdfs://hadoop-server01:9000/。hadoop fs -chown someuser:somegrp /hello.txt。
2)hadoop fs -appendToFile hello.txt /hello.txt
16.離開(kāi)hadoop的 安全模式(系統(tǒng)處于只讀狀態(tài),namenode不會(huì)處理任何塊的復(fù)制和刪除命令)
hadoop dfsadmin -safemode leave
17.刪除目錄及其里面內(nèi)容
hadoop fs -rmr /path/wc/input/words.txt
18.刪除空目錄
hadoop fs -rmdir /aaa/bbb/ccc
19.與linux文件系統(tǒng)中的用法一樣,對(duì)文件所屬權(quán)限
1)hadoop fs -chmod 666 /hello.txt
2)hadoop fs -chown someuser:somegrp /hello.txt
20.統(tǒng)計(jì)文件系統(tǒng)的可用空間信息
hadoop fs -df -h /
21.統(tǒng)計(jì)文件夾的大小信息
hadoop fs -du -s -h /aaa/*
22.統(tǒng)計(jì)一個(gè)指定目錄下的文件節(jié)點(diǎn)數(shù)量
hadoop fs -count /aaa/
23.設(shè)置hdfs中文件的副本數(shù)量
hadoop fs -setrep 3 /aaa/test.txt