Dieser Artikel ist ein Spiegelartikel der maschinellen Übersetzung, bitte klicken Sie hier, um zum Originalartikel zu springen.

Ansehen: 19230|Antwort: 0

java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset.

[Link kopieren]
Veröffentlicht am 26.02.2019 13:37:10 | | | |
java.io.FileNotFoundException: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. -see https://wiki.apache.org/hadoop/WindowsProblems
        bei org.apache.hadoop.util.Shell.fileNotFoundException(Shell.java:528) ~[hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.util.Shell.getHadoopHomeDir(Shell.java:549) ~[hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.util.Shell.getQualifiedBin(Shell.java:572) ~[hadoop-common-2.8.4.jar:na]
        unter org.apache.hadoop.util.Shell. <clinit>(Shell.java:669) ~[hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.util.StringUtils. <clinit>(StringUtils.java:79) [hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.conf.Configuration.getBoolean(Configuration.java:1555) [hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.hbase.HBaseConfiguration.checkDefaultsVersion(HBaseConfiguration.java:66) [hbase-common-2.0.0.jar:2.0.0]
        at org.apache.hadoop.hbase.HBaseConfiguration.addHbaseResources(HBaseConfiguration.java:80) [hbase-common-2.0.0.jar:2.0.0]
        at org.apache.hadoop.hbase.HBaseConfiguration.create(HBaseConfiguration.java:94) [hbase-common-2.0.0.jar:2.0.0]
        at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:49) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        at org.apache.phoenix.util.PhoenixContextExecutor.call(PhoenixContextExecutor.java:76) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        at org.apache.phoenix.util.PhoenixContextExecutor.callWithoutPropagation(PhoenixContextExecutor.java:91) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl.getConfiguration(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0- HBase-2.0]
        at org.apache.phoenix.jdbc.PhoenixDriver.initializeConnectionCache(PhoenixDriver.java:151) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        unter org.apache.phoenix.jdbc.PhoenixDriver. <init>(PhoenixDriver.java:143) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]


Die Server-Hadoop-Version ist wie folgt:

[root@master ~]# Hadoop-Version
Hadoop 2.8.3
Subversionhttps://git-wip-us.apache.org/repos/asf/hadoop.git-r b3fe56402d908019d99af1f1f4fc65cb1d1436a2
Zusammengestellt von jdu am 05.12.2017T03:43Z
Kompiliert mit protoc 2.5.0
Aus der Quelle mit Checksum 9ff4856d824e983fa510d3f843e3f19d
Dieser Befehl wurde mit /home/dzkj/apache/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar ausgeführt


Ich habe immer gedacht, dass meine lokale Idee ein Aufruf zum Remote-Hadoop ist, damit ich Hadoop nicht im lokalen Windows-Betriebssystem installieren muss. Als ich diese HADOOP_HOME gesehen habe, habe ich nicht verstanden, ob ich trotzdem ein Hadoop lokal installieren muss????

Antwort: Du musst Hadoop nicht installieren, aber du musst die %HADOOP_HOME%-Variable konfigurieren.

Lösung:

Lade die entsprechenden Winutils entsprechend deiner Serverversion herunter

Winutils-Einführung: Windows-Binärdateien für Hadoop-Versionen, diese werden direkt aus demselben Git-Commit erstellt, der zur Erstellung der offiziellen ASF-Version verwendet wurde; Sie sind ausgeliehen und auf einer Windows-VM aufgebaut, die speziell für das Testen von Hadoop/YARN-Anwendungen unter Windows vorgesehen ist. Es ist kein System für den täglichen Gebrauch und daher von Sicherheitsangriffen durch Laufwerke und E-Mails isoliert.


Verbinden:https://github.com/steveloughran/winutils

Da meine Hadoop-Version 2.8.3 ist, lautet die Download-Adresse:https://github.com/steveloughran ... er/hadoop-2.8.3/bin

winutils.2.8.3.bin.zip (1.88 MB, Anzahl der Downloads: 15)

GitHub-Klonen oder einen Ordner eines Repositoriums herunterladen
https://www.itsvse.com/thread-7086-1-1.html
(Quelle: Architect_Programmer)
Stellen Sie die Umgebungsvariable %HADOOP_HOME% so ein, dass sie auf das Verzeichnis über dem BIN-Verzeichnis zeigt, das die WINUTILS.EXE enthält. Wie unten gezeigt:



Schließen Sie die Idee, öffnen Sie das Projekt mit der Idee erneut, starten Sie das Projekt, und die Ausnahme verschwindet.

Referenzlinks:https://wiki.apache.org/hadoop/WindowsProblems




Vorhergehend:js-window.onload kann nur einmal aufgerufen werden!
Nächster:Discuz-Post-Methode verwendet, um Links automatisch auszublenden
Verzichtserklärung:
Alle von Code Farmer Network veröffentlichten Software, Programmiermaterialien oder Artikel dienen ausschließlich Lern- und Forschungszwecken; Die oben genannten Inhalte dürfen nicht für kommerzielle oder illegale Zwecke verwendet werden, andernfalls tragen die Nutzer alle Konsequenzen. Die Informationen auf dieser Seite stammen aus dem Internet, und Urheberrechtsstreitigkeiten haben nichts mit dieser Seite zu tun. Sie müssen die oben genannten Inhalte innerhalb von 24 Stunden nach dem Download vollständig von Ihrem Computer löschen. Wenn Ihnen das Programm gefällt, unterstützen Sie bitte echte Software, kaufen Sie die Registrierung und erhalten Sie bessere echte Dienstleistungen. Falls es eine Verletzung gibt, kontaktieren Sie uns bitte per E-Mail.

Mail To:help@itsvse.com