Hadoop点滴-HDFS命令行接口
1、-help[cmd] 顯示命令的幫助信息 ./hdfs dfs -help ls1
2、-ls(r) 顯示當前目錄下的所有文件 -R層層循出文件夾 ./hdfs dfs -ls /log/map ./hdfs dfs -lsr /log/?? (遞歸的)1
?
3、-du(s) 顯示目錄中所有文件大小,或者當只指定一個文件時,顯示此文件的大小 ./hdfs dfs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir11
4、-count[-q] 顯示當前目錄下的所有文件大小 5、-mv 移動多個文件目錄到目標目錄 ./hdfs dfs -mv /user/hadoop/file1 /user/hadoop/file21
6、-cp 復制多個文件到目標目錄 ./hdfs dfs -cp /user/hadoop/file1 /user/hadoop/file2 (將文件從源路徑復制到目標路徑。 這個命令允許有多個源路徑,此時目標路徑必須是一個目錄。)1
?
7、-rm(r) 刪除文件(夾) ./hdfs dfs -rmr /log/map1? (遞歸刪除)1
8、-put 本地文件復制到hdfs ./hdfs dfs -put test.txt /log/map/1
9、-copyFromLocal 本地文件復制到hdfs ./hdfs dfs -copyFromLOcal /usr/data/text.txt /log/map1/?? (將本地的text.txt 復制到hdfs的/log/map1/下)1
10、-moveFromLocal 本地文件移動到hdfs ./hdfs dfs -moveFromLocal /usr/data/text.txt /log/map1/?? (將本地的text.txt移動到hdfs的/log/map1/下)1
11、-get[-ignoreCrc] 復制文件到本地,可以忽略crc校驗 ./hdfs dfs -get /log/map1/*? . (復制到本地當前目錄下) /hdfs dfs -get /log/map1/* /usr/data (將hdfs下的/log/map1/下的所有文件全部復制到本地的/usr/data/下 )1
?
12、-getmerge[addnl] 將源目錄中的所有文件排序合并到一個文件中,接受一個源目錄和一個目標文件作為輸入,并且將源目錄中所有的文件連接成本地目標文件。addnl是可選的,用于指定在每個文件結尾添加一個換行符。 ./hdfs dfs -getmerge /log/map1/* /usr/data(將hdfs上的/log/map1/下的所有文件合并下載到本地的/usr/data下)1
13、-cat 在終端顯示文件內容 ?./hdfs dfs -cat /log/map1/part-00000? | head (讀取hdfs上的/log/map1下的part-00000文件??? head參數,代表前十行。)
?/hdfs dfs -tail /log/map1/part-00000 (查看文件的最后一千行)1
?
14、-text 在終端顯示文件內容,將源文件輸出為文本格式。允許的格式是zip和TextRecordInputStream ?15、-copyToLocal[-ignoreCrc] 復制文件到本地 16、-moveToLocal 移動文件到本地 17、-mkdir 創建文件夾 后跟-p 可以創建不存在的父路徑 ./hdfs dfs -mkdir -p /dir1/dir11/dir111? 1
18、-touchz 創建一個空文件
19、-grep 從hdfs上過濾包含某個字符的行內容 ./hdfs dfs -cat /log/testlog/* | grep 過濾字段
轉載于:https://www.cnblogs.com/jiangtao1218/p/8810795.html
總結
以上是生活随笔為你收集整理的Hadoop点滴-HDFS命令行接口的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python大数据论文_大数据环境下基于
- 下一篇: 小程序button去除边框