java.io.FileNotFoundException: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. -see https://wiki.apache.org/hadoop/WindowsProblems at org.apache.hadoop.util.Shell.fileNotFoundException(Shell.java:528) ~[hadoop-common-2.8.4.jar:na] at org.apache.hadoop.util.Shell.getHadoopHomeDir(Shell.java:549) ~[hadoop-common-2.8.4.jar:na] at org.apache.hadoop.util.Shell.getQualifiedBin(Shell.java:572) ~[hadoop-common-2.8.4.jar:na] org.apache.hadoop.util.Shell에서 확인할 수 있습니다. <clinit>(Shell.java:669) ~[hadoop-common-2.8.4.jar:na] org.apache.hadoop.util.StringUtils에서 확인할 수 있습니다. <clinit>(StringUtils.java:79) [hadoop-common-2.8.4.jar:na] at org.apache.hadoop.conf.Configuration.getBoolean(Configuration.java:1555) [hadoop-common-2.8.4.jar:na] at org.apache.hadoop.hbase.HBaseConfiguration.checkDefaultsVersion(HBaseConfiguration.java:66) [hbase-common-2.0.0.jar:2.0.0] at org.apache.hadoop.hbase.HBaseConfiguration.addHbaseResources(HBaseConfiguration.java:80) [hbase-common-2.0.0.jar:2.0.0] at org.apache.hadoop.hbase.HBaseConfiguration.create(HBaseConfiguration.java:94) [hbase-common-2.0.0.jar:2.0.0] at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:49) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] at org.apache.phoenix.util.PhoenixContextExecutor.call(PhoenixContextExecutor.java:76) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] at org.apache.phoenix.util.PhoenixContextExecutor.callWithoutPropagation(PhoenixContextExecutor.java:91) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl.getConfiguration(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0- HBase-2.0] at org.apache.phoenix.jdbc.PhoenixDriver.initializeConnectionCache(PhoenixDriver.java:151) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] org.apache.phoenix.jdbc.PhoenixDriver에서 확인할 수 있습니다. <init>(PhoenixDriver.java:143) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
서버 Hadoop 버전은 다음과 같습니다:
[root@master ~]# 하둡 버전 Hadoop 2.8.3 전복https://git-wip-us.apache.org/repos/asf/hadoop.git-R B3FE56402D908019D99af1F1F4FC65CB1D1436A2 jdu가 2017-12-05T03:43Z에 작성 protoc 2.5.0으로 컴파일됨 출처에서 확인 자료와 체크섬 9ff4856d824e983fa510d3f843e3f19d 이 명령어는 /home/dzkj/apache/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar
저는 항상 제 로컬 아이디어가 원격 하둡에 호출하는 것이라고 생각해왔고, 그래서 로컬 윈도우 운영체제에 하둡을 설치할 필요가 없다고 생각했습니다. 그래서 이 HADOOP_HOME을 보고 이해가 안 됐는데, 그래도 로컬에 하둡을 설치해야 하나요????
답변: hadoop을 설치할 필요는 없지만 %HADOOP_HOME% 변수를 설정해야 합니다.
용액:
서버 버전에 따라 해당 winutils를 다운로드하세요
Winutils 소개: 하둡 버전용 윈도우 바이너리로, 공식 ASF 버전을 만드는 데 사용된 동일한 git 커밋에서 직접 빌드됩니다; 이들은 윈도우에서 하둡/YARN 애플리케이션 테스트를 위해 전용으로 구성된 윈도우 VM에서 검증되고 빌드됩니다. 일상적으로 사용하는 시스템이 아니기 때문에 드라이브나 이메일 보안 공격으로부터 격리됩니다.
면책 조항: Code Farmer Network에서 발행하는 모든 소프트웨어, 프로그래밍 자료 또는 기사는 학습 및 연구 목적으로만 사용됩니다; 위 내용은 상업적 또는 불법적인 목적으로 사용되지 않으며, 그렇지 않으면 모든 책임이 사용자에게 부담됩니다. 이 사이트의 정보는 인터넷에서 가져온 것이며, 저작권 분쟁은 이 사이트와는 관련이 없습니다. 위 내용은 다운로드 후 24시간 이내에 컴퓨터에서 완전히 삭제해야 합니다. 프로그램이 마음에 드신다면, 진짜 소프트웨어를 지원하고, 등록을 구매하며, 더 나은 진짜 서비스를 받아주세요. 침해가 있을 경우 이메일로 연락해 주시기 바랍니다.
Mail To:help@itsvse.com