이 글은 기계 번역의 미러 문서이며, 원본 기사로 바로 이동하려면 여기를 클릭해 주세요.

보기: 8357|회답: 0

Hadoop HDFS 셸 명령 롤업

[링크 복사]
게시됨 2019. 7. 5. 오후 3:29:44 | | | |
FS 셸

파일 시스템(FS) 셸 명령어를 호출할 때는 bin/hadoop fs 형태로 해야 <args>합니다. 모든 FS 셸 명령어는 URI 경로를 매개변수로 사용합니다. URI 포맷은 scheme://authority/path. HDFS 파일 시스템의 경우 scheme은 hdfs이고, 로컬 파일 시스템의 경우 scheme은 파일이 됩니다. 스킴과 권한 매개변수는 선택 사항이며, 지정하지 않으면 구성에 명시된 기본 스킴이 사용됩니다. /parent/child와 같은 HDFS 파일이나 디렉터리는 hdfs://namenode:namenodeport/parent/child 또는 단순히 /parent/child(설정 파일의 기본값이 namenode:namenodeport라고 가정할 때)로 표현할 수 있습니다. 대부분의 FS 셸 명령어는 Unix 셸 명령어와 유사하게 동작하며, 다음 섹션에서 다루겠습니다. 오류 정보는 stderr로, 기타 정보는 stdout에 출력됩니다.



고양이사용법: hadoop fs -cat URI [URI ...]

경로 지정 파일의 내용을 stdout으로 출력합니다.

본보기:

Hadoop FS -cat HDFS://host1:port1/file1 hdfs://host2:port2/file2
Hadoop FS -cat file:///file3 /user/hadoop/file4
반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.

CHGRP
사용법: hadoop fs -CHGRP [-R] 그룹 URI [URI ...] 파일의 그룹 연관성을 변경하세요. -R을 사용하면 디렉터리 구조를 통해 재귀적으로 변경을 수행합니다. 사용자는 파일의 소유자여야 하며, 그렇지 않으면 슈퍼유저여야 합니다. 추가 정보는 권한 사용자 가이드에 있습니다. -->

파일이 속한 그룹을 변경하세요. -R을 사용하면 디렉터리 구조 내에서 재귀적으로 변경이 이루어집니다. 명령어의 사용자는 파일의 소유자이거나 슈퍼유저여야 합니다. 자세한 내용은 HDFS 권한 사용자 가이드를 참조하세요.

CHMOD
사용법: hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]

파일의 권한을 변경하세요. -R을 사용하면 디렉터리 구조 내에서 재귀적으로 변경이 이루어집니다. 명령어의 사용자는 파일의 소유자이거나 슈퍼유저여야 합니다. 자세한 내용은 HDFS 권한 사용자 가이드를 참조하세요.


사용법: hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI]

파일 소유자를 변경하세요. -R을 사용하면 디렉터리 구조 내에서 재귀적으로 변경이 이루어집니다. 명령어의 사용자는 슈퍼유저여야 합니다. 자세한 내용은 HDFS 권한 사용자 가이드를 참조하세요.

복사 출신 지역
사용법: hadoop fs -copyFromLocal <localsrc> URI

단, 소스 경로는 put 명령어와 유사한 로컬 파일입니다.

copyToLocal
사용법: hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>

get 명령어와 비슷하지만, 대상 경로가 로컬 파일입니다.

CP
사용법: hadoop fs -cp URI [URI ...] <dest>

원본 경로에서 목적지 경로로 파일을 복사합니다. 이 명령어는 여러 소스 경로를 허용하며, 이 경우 목적지 경로는 디렉터리여야 합니다.
본보기:

Hadoop FS -cp /user/hadoop/file1 /user/hadoop/file2
Hadoop FS -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
반환 가치:

0을 성공적으로 반환하고, -1을 반환하지 않음.


사용법: hadoop fs -du URI [URI ...]

디렉터리 내 모든 파일의 크기를 표시하거나, 한 개의 파일만 지정했을 때 표시됩니다.
본보기:
Hadoop FS -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1
반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.

더스
사용법: hadoop fs -<args>dus

파일 크기를 표시합니다.

말소

사용법: Hadoop FS - 삭제

휴지통을 비워. 재활용 쓰레기통의 특성에 대한 자세한 내용은 HDFS 설계 문서를 참조해 주시기 바랍니다.

가져오기

사용법: Hadoop FS -get [-ignorecrc] [-crc <src> <localdst>]
파일을 로컬 파일 시스템으로 복사하세요. CRC 검증에 실패한 파일을 복사하려면 -ignorecrc 옵션을 사용할 수 있습니다. -crc 옵션을 사용해 CRC 정보와 함께 파일을 복사하세요.

본보기:

Hadoop FS -get /user/hadoop/file localfile
Hadoop FS -get hdfs://host:port/user/hadoop/file localfile
반환 가치:

0을 성공적으로 반환하고, -1을 반환하지 않음.

GetMerge
사용법: hadoop fs -getmerge <src> <localdst> [addnl]

소스 디렉터리와 대상 파일을 입력으로 받아들이고, 소스 디렉터리 내 모든 파일을 로컬 대상 파일에 연결합니다. addnl은 선택 사항이며 각 파일 끝에 줄 바꿈을 추가하도록 지정합니다.

이스
사용법: hadoop fs -ls <args>

파일이라면 파일 정보는 다음과 같은 형식으로 반환됩니다:
파일 이름 <副本数> 파일 크기 수정일: 수정 시간: 권한 사용자 ID, 그룹 ID 및 ID
디렉터리라면 Unix와 마찬가지로 직접 하위 파일 목록을 반환합니다. 목차는 다음과 같은 정보를 반환합니다:
디렉터리 <dir> 이름 수정 날짜 수정 시간 권한 사용자 ID 그룹 ID
본보기:
Hadoop FS -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://host:port/user/hadoop/dir1 /nonexistentfile
반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.

LSR

사용법: hadoop fs -<args>lsr
지휘부. 유닉스의 ls-R과 비슷합니다.

mkdir
사용법: hadoop fs -mkdir <paths>
경로에서 지정한 URI를 매개변수로 받아들여 디렉터리를 생성하세요. 이 기능은 유닉스의 mkdir -p처럼 경로 내 모든 레벨에 부모 디렉터리를 생성합니다.

본보기:

Hadoop FS -mkdir /user/hadoop/dir1 /user/hadoop/dir2
Hadoop FS -MKDIR HDFS://host1:port1/user/hadoop/dir hdfs://host2:port2/user/hadoop/dir
반환 가치:

0을 성공적으로 반환하고, -1을 반환하지 않음.

이동 지역

사용법: dfs -moveFromLocal <src> <dst>

"구현되지 않음" 메시지가 출력됩니다.

MV
사용법: hadoop fs -mv URI [URI ...] <dest>

파일을 소스 경로에서 목적지 경로로 이동하세요. 이 명령어는 여러 소스 경로를 허용하며, 이 경우 목적지 경로는 디렉터리여야 합니다. 서로 다른 파일 시스템 간에 파일을 이동하는 것은 허용되지 않습니다.
본보기:

Hadoop FS -mv /user/hadoop/file1 /user/hadoop/file2
Hadoop FS -MV HDFS://host:port/file1 hdfs://host:port/file2 hdfs://host:port/file3 hdfs://host:port/dir1
반환 가치:

0을 성공적으로 반환하고, -1을 반환하지 않음.


사용법: hadoop fs -put <localsrc> ... <dst>

로컬 파일 시스템에서 목적지 파일 시스템으로 단일 또는 여러 소스 경로를 복사합니다. 또한 표준 입력에서 입력을 읽어 대상 파일 시스템에 쓰는 기능도 지원합니다.
Hadoop FS -put localfile /user/hadoop/hadoopfile
Hadoop FS -put localfile1 localfile2 /user/hadoop/hadoopdir
Hadoop FS -put localfile hdfs://host:port/hadoop/hadoopfile
Hadoop FS -put - HDFS://host:port/hadoop/hadoopfile
표준 입력에서 입력을 읽으세요.
반환 가치:

0을 성공적으로 반환하고, -1을 반환하지 않음.

RM
사용법: hadoop fs -rm URI [URI ...]

지정된 파일을 삭제하세요. 비어 있지 않은 디렉터리와 파일만 삭제됩니다. 자세한 내용은 재귀적 삭제에 관한 rmr 명령어를 참조하세요.
본보기:

Hadoop FS -rm hdfs://host:port/file /user/hadoop/emptydir
반환 가치:

0을 성공적으로 반환하고, -1을 반환하지 않음.

RMR
사용법: hadoop fs -rmr URI [URI ...]

삭제.
본보기:

Hadoop FS -RMR /user/hadoop/dir
Hadoop FS -RMR HDFS://host:port/user/hadoop/dir
반환 가치:

0을 성공적으로 반환하고, -1을 반환하지 않음.

세트렙
사용법: hadoop fs -setrep [-R<path>]

파일의 복사 비율을 변경하세요. -R 옵션은 디렉터리 내 모든 파일의 복사 비율을 재귀적으로 변경하는 데 사용됩니다.

본보기:

hadoop fs -setrep -w 3 -R /user/hadoop/dir1
반환 가치:

0을 성공적으로 반환하고, -1을 반환하지 않음.

통계
사용법: hadoop fs -stat URI [URI ...]

지정된 경로에 대한 통계를 반환합니다.

본보기:

Hadoop FS -stat path
반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.

꼬리
사용법: hadoop fs -tail [-f] URI

파일의 마지막 1K 바이트 내용을 출력하여 stdout에 넣습니다. -f 옵션을 지원하세요. 동작은 유닉스와 일치합니다.

본보기:

하둡 FS -꼬리 경로명
반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.

테스트
사용법: hadoop fs -test -[ezd] URI

옵션:
-e 파일이 존재하는지 확인하세요. 존재하면 0을 반환합니다.
-z 파일이 0바이트인지 확인하세요. 만약 그렇다면, 0을 반환합니다.
-d는 경로가 디렉터리일 경우 1을 반환하고, 그렇지 않으면 0을 반환합니다.
본보기:

Hadoop FS -test -e filename

문자 메시지
사용법: hadoop fs <src>-text
원본 파일을 텍스트 형식으로 출력하세요. 허용되는 형식은 zip과 TextRecordInputStream입니다.

터치즈

사용법: hadoop fs -touchz URI [URI ...]
0바이트의 빈 파일을 만드세요.

본보기:

Hadoop -touchz 경로명
반환 가치:
0을 성공적으로 반환하고, -1을 반환하지 않음.

공식 링크:하이퍼링크 로그인이 보입니다.




이전의:HDFS의 Java API 인터페이스 접근을 마스터하세요
다음:하둡용 API 연산 - HDFS
면책 조항:
Code Farmer Network에서 발행하는 모든 소프트웨어, 프로그래밍 자료 또는 기사는 학습 및 연구 목적으로만 사용됩니다; 위 내용은 상업적 또는 불법적인 목적으로 사용되지 않으며, 그렇지 않으면 모든 책임이 사용자에게 부담됩니다. 이 사이트의 정보는 인터넷에서 가져온 것이며, 저작권 분쟁은 이 사이트와는 관련이 없습니다. 위 내용은 다운로드 후 24시간 이내에 컴퓨터에서 완전히 삭제해야 합니다. 프로그램이 마음에 드신다면, 진짜 소프트웨어를 지원하고, 등록을 구매하며, 더 나은 진짜 서비스를 받아주세요. 침해가 있을 경우 이메일로 연락해 주시기 바랍니다.

Mail To:help@itsvse.com