|
|
Veröffentlicht am 26.02.2019 13:37:10
|
|
|
|

java.io.FileNotFoundException: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. -see https://wiki.apache.org/hadoop/WindowsProblems bei org.apache.hadoop.util.Shell.fileNotFoundException(Shell.java:528) ~[hadoop-common-2.8.4.jar:na] at org.apache.hadoop.util.Shell.getHadoopHomeDir(Shell.java:549) ~[hadoop-common-2.8.4.jar:na] at org.apache.hadoop.util.Shell.getQualifiedBin(Shell.java:572) ~[hadoop-common-2.8.4.jar:na] unter org.apache.hadoop.util.Shell. <clinit>(Shell.java:669) ~[hadoop-common-2.8.4.jar:na] at org.apache.hadoop.util.StringUtils. <clinit>(StringUtils.java:79) [hadoop-common-2.8.4.jar:na] at org.apache.hadoop.conf.Configuration.getBoolean(Configuration.java:1555) [hadoop-common-2.8.4.jar:na] at org.apache.hadoop.hbase.HBaseConfiguration.checkDefaultsVersion(HBaseConfiguration.java:66) [hbase-common-2.0.0.jar:2.0.0] at org.apache.hadoop.hbase.HBaseConfiguration.addHbaseResources(HBaseConfiguration.java:80) [hbase-common-2.0.0.jar:2.0.0] at org.apache.hadoop.hbase.HBaseConfiguration.create(HBaseConfiguration.java:94) [hbase-common-2.0.0.jar:2.0.0] at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:49) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] at org.apache.phoenix.util.PhoenixContextExecutor.call(PhoenixContextExecutor.java:76) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] at org.apache.phoenix.util.PhoenixContextExecutor.callWithoutPropagation(PhoenixContextExecutor.java:91) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl.getConfiguration(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0- HBase-2.0] at org.apache.phoenix.jdbc.PhoenixDriver.initializeConnectionCache(PhoenixDriver.java:151) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] unter org.apache.phoenix.jdbc.PhoenixDriver. <init>(PhoenixDriver.java:143) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
Die Server-Hadoop-Version ist wie folgt:
[root@master ~]# Hadoop-Version Hadoop 2.8.3 Subversionhttps://git-wip-us.apache.org/repos/asf/hadoop.git-r b3fe56402d908019d99af1f1f4fc65cb1d1436a2 Zusammengestellt von jdu am 05.12.2017T03:43Z Kompiliert mit protoc 2.5.0 Aus der Quelle mit Checksum 9ff4856d824e983fa510d3f843e3f19d Dieser Befehl wurde mit /home/dzkj/apache/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar ausgeführt
Ich habe immer gedacht, dass meine lokale Idee ein Aufruf zum Remote-Hadoop ist, damit ich Hadoop nicht im lokalen Windows-Betriebssystem installieren muss. Als ich diese HADOOP_HOME gesehen habe, habe ich nicht verstanden, ob ich trotzdem ein Hadoop lokal installieren muss????
Antwort: Du musst Hadoop nicht installieren, aber du musst die %HADOOP_HOME%-Variable konfigurieren.
Lösung:
Lade die entsprechenden Winutils entsprechend deiner Serverversion herunter
Winutils-Einführung: Windows-Binärdateien für Hadoop-Versionen, diese werden direkt aus demselben Git-Commit erstellt, der zur Erstellung der offiziellen ASF-Version verwendet wurde; Sie sind ausgeliehen und auf einer Windows-VM aufgebaut, die speziell für das Testen von Hadoop/YARN-Anwendungen unter Windows vorgesehen ist. Es ist kein System für den täglichen Gebrauch und daher von Sicherheitsangriffen durch Laufwerke und E-Mails isoliert.
Verbinden:https://github.com/steveloughran/winutils
Da meine Hadoop-Version 2.8.3 ist, lautet die Download-Adresse:https://github.com/steveloughran ... er/hadoop-2.8.3/bin
winutils.2.8.3.bin.zip
(1.88 MB, Anzahl der Downloads: 15)
Stellen Sie die Umgebungsvariable %HADOOP_HOME% so ein, dass sie auf das Verzeichnis über dem BIN-Verzeichnis zeigt, das die WINUTILS.EXE enthält. Wie unten gezeigt:
Schließen Sie die Idee, öffnen Sie das Projekt mit der Idee erneut, starten Sie das Projekt, und die Ausnahme verschwindet.
Referenzlinks:https://wiki.apache.org/hadoop/WindowsProblems
|
Vorhergehend:js-window.onload kann nur einmal aufgerufen werden!Nächster:Discuz-Post-Methode verwendet, um Links automatisch auszublenden
|