이 글은 기계 번역의 미러 문서이며, 원본 기사로 바로 이동하려면 여기를 클릭해 주세요.

보기: 15082|회답: 0

[출처] 하둡용 API 연산 - HDFS

[링크 복사]
게시됨 2019. 7. 5. 오후 4:33:58 | | |
1. 의존성 도입

참고: jar 패키지를 수동으로 불러와야 한다면, HDFS jar 패키지가 Hadoop 설치 디렉터리의 공유---- 있습니다

2. 창문 아래의 개발 설명

하둡 애플리케이션을 리눅스에서 개발하는 것이 권장되며, 호환성 문제는 없습니다. Windows에서 클라이언트 애플리케이션을 개발하려면 다음 환경을 설정해야 합니다:

A. 윈도우의 디렉터리에서 하둡 설치 패키지를 압축 해제하기

B. 설치 패키지 내의 라이브러리와 빈 디렉터리를 해당 Windows 버전용 로컬 라이브러리로 대체합니다.

C. 창 시스템에서 HADOOP_HOME 설정하여 언지핑한 설치 패키지를 가리키도록 설정하세요

D. Windows 시스템의 경로 변수에 Hadoop의 bin 디렉터리를 추가합니다.


Java에서 HDFS를 운영하려면 먼저 클라이언트 인스턴스를 확보해야 합니다




작업 대상은 HDFS이므로, 얻은 fs 객체는 DistributedFileSystem의 인스턴스여야 합니다.

메서드 이해: 특정 인스턴스 클라이언트 클래스는 어디서 오나요?

- conf에서 fs.defaultFS 매개변수 중 하나의 구성 값을 보면;

만약 코드에서 fs.defaultFS를 지정하지 않고, 프로젝트 클래스패스에 해당 구성이 제공되지 않는다면, conf의 기본값은 hadoop jar 패키지의 core-default.xml에서 나오고 기본값은 file:/// 이라면, 획득은 DistributedFileSystem의 인스턴스가 아니라 로컬 파일 시스템의 클라이언트 객체가 됩니다;


문서의 추가, 삭제, 수정 및 검사

스트림을 통한 HDFS 접근







이전의:Hadoop HDFS 셸 명령 롤업
다음:C# Http 요청 업로드 폼 파일 (추가 매개변수 추가 가능)
면책 조항:
Code Farmer Network에서 발행하는 모든 소프트웨어, 프로그래밍 자료 또는 기사는 학습 및 연구 목적으로만 사용됩니다; 위 내용은 상업적 또는 불법적인 목적으로 사용되지 않으며, 그렇지 않으면 모든 책임이 사용자에게 부담됩니다. 이 사이트의 정보는 인터넷에서 가져온 것이며, 저작권 분쟁은 이 사이트와는 관련이 없습니다. 위 내용은 다운로드 후 24시간 이내에 컴퓨터에서 완전히 삭제해야 합니다. 프로그램이 마음에 드신다면, 진짜 소프트웨어를 지원하고, 등록을 구매하며, 더 나은 진짜 서비스를 받아주세요. 침해가 있을 경우 이메일로 연락해 주시기 바랍니다.

Mail To:help@itsvse.com