FS 셸
파일 시스템(FS) 셸 명령어를 호출할 때는 bin/hadoop fs 형태로 해야 <args>합니다. 모든 FS 셸 명령어는 URI 경로를 매개변수로 사용합니다. URI 포맷은 scheme://authority/path. HDFS 파일 시스템의 경우 scheme은 hdfs이고, 로컬 파일 시스템의 경우 scheme은 파일이 됩니다. 스킴과 권한 매개변수는 선택 사항이며, 지정하지 않으면 구성에 명시된 기본 스킴이 사용됩니다. /parent/child와 같은 HDFS 파일이나 디렉터리는 hdfs://namenode:namenodeport/parent/child 또는 단순히 /parent/child(설정 파일의 기본값이 namenode:namenodeport라고 가정할 때)로 표현할 수 있습니다. 대부분의 FS 셸 명령어는 Unix 셸 명령어와 유사하게 동작하며, 다음 섹션에서 다루겠습니다. 오류 정보는 stderr로, 기타 정보는 stdout에 출력됩니다.
고양이사용법: hadoop fs -cat URI [URI ...]
경로 지정 파일의 내용을 stdout으로 출력합니다.
본보기:
Hadoop FS -cat HDFS://host1:port1/file1 hdfs://host2:port2/file2 Hadoop FS -cat file:///file3 /user/hadoop/file4 반환 가치: 0을 성공적으로 반환하고, -1을 반환하지 않음.
CHGRP 사용법: hadoop fs -CHGRP [-R] 그룹 URI [URI ...] 파일의 그룹 연관성을 변경하세요. -R을 사용하면 디렉터리 구조를 통해 재귀적으로 변경을 수행합니다. 사용자는 파일의 소유자여야 하며, 그렇지 않으면 슈퍼유저여야 합니다. 추가 정보는 권한 사용자 가이드에 있습니다. -->
파일이 속한 그룹을 변경하세요. -R을 사용하면 디렉터리 구조 내에서 재귀적으로 변경이 이루어집니다. 명령어의 사용자는 파일의 소유자이거나 슈퍼유저여야 합니다. 자세한 내용은 HDFS 권한 사용자 가이드를 참조하세요.
CHMOD 사용법: hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]
파일의 권한을 변경하세요. -R을 사용하면 디렉터리 구조 내에서 재귀적으로 변경이 이루어집니다. 명령어의 사용자는 파일의 소유자이거나 슈퍼유저여야 합니다. 자세한 내용은 HDFS 권한 사용자 가이드를 참조하세요.
촐 사용법: hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI]
파일 소유자를 변경하세요. -R을 사용하면 디렉터리 구조 내에서 재귀적으로 변경이 이루어집니다. 명령어의 사용자는 슈퍼유저여야 합니다. 자세한 내용은 HDFS 권한 사용자 가이드를 참조하세요.
복사 출신 지역 사용법: hadoop fs -copyFromLocal <localsrc> URI
단, 소스 경로는 put 명령어와 유사한 로컬 파일입니다.
copyToLocal 사용법: hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
get 명령어와 비슷하지만, 대상 경로가 로컬 파일입니다.
CP 사용법: hadoop fs -cp URI [URI ...] <dest>
원본 경로에서 목적지 경로로 파일을 복사합니다. 이 명령어는 여러 소스 경로를 허용하며, 이 경우 목적지 경로는 디렉터리여야 합니다. 본보기:
Hadoop FS -cp /user/hadoop/file1 /user/hadoop/file2 Hadoop FS -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir 반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.
두 사용법: hadoop fs -du URI [URI ...]
디렉터리 내 모든 파일의 크기를 표시하거나, 한 개의 파일만 지정했을 때 표시됩니다. 본보기: Hadoop FS -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1 반환 가치: 0을 성공적으로 반환하고, -1을 반환하지 않음.
더스 사용법: hadoop fs -<args>dus
파일 크기를 표시합니다.
말소
사용법: Hadoop FS - 삭제
휴지통을 비워. 재활용 쓰레기통의 특성에 대한 자세한 내용은 HDFS 설계 문서를 참조해 주시기 바랍니다.
가져오기
사용법: Hadoop FS -get [-ignorecrc] [-crc <src> <localdst>] 파일을 로컬 파일 시스템으로 복사하세요. CRC 검증에 실패한 파일을 복사하려면 -ignorecrc 옵션을 사용할 수 있습니다. -crc 옵션을 사용해 CRC 정보와 함께 파일을 복사하세요.
본보기:
Hadoop FS -get /user/hadoop/file localfile Hadoop FS -get hdfs://host:port/user/hadoop/file localfile 반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.
GetMerge 사용법: hadoop fs -getmerge <src> <localdst> [addnl]
소스 디렉터리와 대상 파일을 입력으로 받아들이고, 소스 디렉터리 내 모든 파일을 로컬 대상 파일에 연결합니다. addnl은 선택 사항이며 각 파일 끝에 줄 바꿈을 추가하도록 지정합니다.
이스 사용법: hadoop fs -ls <args>
파일이라면 파일 정보는 다음과 같은 형식으로 반환됩니다: 파일 이름 <副本数> 파일 크기 수정일: 수정 시간: 권한 사용자 ID, 그룹 ID 및 ID 디렉터리라면 Unix와 마찬가지로 직접 하위 파일 목록을 반환합니다. 목차는 다음과 같은 정보를 반환합니다: 디렉터리 <dir> 이름 수정 날짜 수정 시간 권한 사용자 ID 그룹 ID 본보기: Hadoop FS -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://host:port/user/hadoop/dir1 /nonexistentfile 반환 가치: 0을 성공적으로 반환하고, -1을 반환하지 않음.
LSR
사용법: hadoop fs -<args>lsr 지휘부. 유닉스의 ls-R과 비슷합니다.
mkdir 사용법: hadoop fs -mkdir <paths> 경로에서 지정한 URI를 매개변수로 받아들여 디렉터리를 생성하세요. 이 기능은 유닉스의 mkdir -p처럼 경로 내 모든 레벨에 부모 디렉터리를 생성합니다.
본보기:
Hadoop FS -mkdir /user/hadoop/dir1 /user/hadoop/dir2 Hadoop FS -MKDIR HDFS://host1:port1/user/hadoop/dir hdfs://host2:port2/user/hadoop/dir 반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.
이동 지역
사용법: dfs -moveFromLocal <src> <dst>
"구현되지 않음" 메시지가 출력됩니다.
MV 사용법: hadoop fs -mv URI [URI ...] <dest>
파일을 소스 경로에서 목적지 경로로 이동하세요. 이 명령어는 여러 소스 경로를 허용하며, 이 경우 목적지 경로는 디렉터리여야 합니다. 서로 다른 파일 시스템 간에 파일을 이동하는 것은 허용되지 않습니다. 본보기:
Hadoop FS -mv /user/hadoop/file1 /user/hadoop/file2 Hadoop FS -MV HDFS://host:port/file1 hdfs://host:port/file2 hdfs://host:port/file3 hdfs://host:port/dir1 반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.
풋 사용법: hadoop fs -put <localsrc> ... <dst>
로컬 파일 시스템에서 목적지 파일 시스템으로 단일 또는 여러 소스 경로를 복사합니다. 또한 표준 입력에서 입력을 읽어 대상 파일 시스템에 쓰는 기능도 지원합니다. Hadoop FS -put localfile /user/hadoop/hadoopfile Hadoop FS -put localfile1 localfile2 /user/hadoop/hadoopdir Hadoop FS -put localfile hdfs://host:port/hadoop/hadoopfile Hadoop FS -put - HDFS://host:port/hadoop/hadoopfile 표준 입력에서 입력을 읽으세요. 반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.
RM 사용법: hadoop fs -rm URI [URI ...]
지정된 파일을 삭제하세요. 비어 있지 않은 디렉터리와 파일만 삭제됩니다. 자세한 내용은 재귀적 삭제에 관한 rmr 명령어를 참조하세요. 본보기:
Hadoop FS -rm hdfs://host:port/file /user/hadoop/emptydir 반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.
RMR 사용법: hadoop fs -rmr URI [URI ...]
삭제. 본보기:
Hadoop FS -RMR /user/hadoop/dir Hadoop FS -RMR HDFS://host:port/user/hadoop/dir 반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.
세트렙 사용법: hadoop fs -setrep [-R<path>]
파일의 복사 비율을 변경하세요. -R 옵션은 디렉터리 내 모든 파일의 복사 비율을 재귀적으로 변경하는 데 사용됩니다.
본보기:
hadoop fs -setrep -w 3 -R /user/hadoop/dir1 반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.
통계 사용법: hadoop fs -stat URI [URI ...]
지정된 경로에 대한 통계를 반환합니다.
본보기:
Hadoop FS -stat path 반환 가치: 0을 성공적으로 반환하고, -1을 반환하지 않음.
꼬리 사용법: hadoop fs -tail [-f] URI
파일의 마지막 1K 바이트 내용을 출력하여 stdout에 넣습니다. -f 옵션을 지원하세요. 동작은 유닉스와 일치합니다.
본보기:
하둡 FS -꼬리 경로명 반환 가치: 0을 성공적으로 반환하고, -1을 반환하지 않음.
테스트 사용법: hadoop fs -test -[ezd] URI
옵션: -e 파일이 존재하는지 확인하세요. 존재하면 0을 반환합니다. -z 파일이 0바이트인지 확인하세요. 만약 그렇다면, 0을 반환합니다. -d는 경로가 디렉터리일 경우 1을 반환하고, 그렇지 않으면 0을 반환합니다. 본보기:
Hadoop FS -test -e filename
문자 메시지 사용법: hadoop fs <src>-text 원본 파일을 텍스트 형식으로 출력하세요. 허용되는 형식은 zip과 TextRecordInputStream입니다.
터치즈 사용법: hadoop fs -touchz URI [URI ...] 0바이트의 빈 파일을 만드세요.
본보기:
Hadoop -touchz 경로명 반환 가치: 0을 성공적으로 반환하고, -1을 반환하지 않음.
공식 링크:하이퍼링크 로그인이 보입니다.
|