Questo articolo è un articolo speculare di traduzione automatica, clicca qui per saltare all'articolo originale.

Vista: 19230|Risposta: 0

java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset.

[Copiato link]
Pubblicato su 26/02/2019 13:37:10 | | | |
java.io.FileNotFoundException: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. -see https://wiki.apache.org/hadoop/WindowsProblems
        su org.apache.hadoop.util.Shell.fileNotFoundException(Shell.java:528) ~[hadoop-common-2.8.4.jar:na]
        su org.apache.hadoop.util.Shell.getHadoopHomeDir(Shell.java:549) ~[hadoop-common-2.8.4.jar:na]
        su org.apache.hadoop.util.Shell.getQualifiedBin(Shell.java:572) ~[hadoop-common-2.8.4.jar:na]
        su org.apache.hadoop.util.Shell. <clinit>(Shell.java:669) ~[hadoop-common-2.8.4.jar:na]
        su org.apache.hadoop.util.StringUtils. <clinit>(StringUtils.java:79) [hadoop-common-2.8.4.jar:na]
        su org.apache.hadoop.conf.Configuration.getBoolean(Configuration.java:1555) [hadoop-common-2.8.4.jar:na]
        su org.apache.hadoop.hbase.HBaseConfiguration.checkDefaultsVersion(HBaseConfiguration.java:66) [hbase-common-2.0.0.jar:2.0.0]
        at org.apache.hadoop.hbase.HBaseConfiguration.addHbaseResources(HBaseConfiguration.java:80) [hbase-common-2.0.0.jar:2.0.0]
        at org.apache.hadoop.hbase.HBaseConfiguration.create(HBaseConfiguration.java:94) [hbase-common-2.0.0.jar:2.0.0]
        su org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:49) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        su org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        su org.apache.phoenix.util.PhoenixContextExecutor.call(PhoenixContextExecutor.java:76) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        su org.apache.phoenix.util.PhoenixContextExecutor.callWithoutPropagation(PhoenixContextExecutor.java:91) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl.getConfiguration(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0- HBase-2.0]
        su org.apache.phoenix.jdbc.PhoenixDriver.initializeConnectionCache(PhoenixDriver.java:151) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        su org.apache.phoenix.jdbc.PhoenixDriver. <init>(PhoenixDriver.java:143) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]


La versione server Hadoop è la seguente:

[root@master ~]# Versione Hadoop
Hadoop 2.8.3
Sovversionehttps://git-wip-us.apache.org/repos/asf/hadoop.git-r b3fe56402d908019d99af1f1f4fc65cb1d1436a2
Compilato da jdu il 05-12-2017 03:43Z
Compilato con protoc 2.5.0
Dalla fonte con checksum 9ff4856d824e983fa510d3f843e3f19d
Questo comando veniva eseguito usando /home/dzkj/apache/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar


Ho sempre pensato che la mia idea locale fosse una chiamata a Hadoop remoto, così non devo installare Hadoop nel sistema operativo Windows locale. Quindi, quando ho visto questo HADOOP_HOME, non ho capito, devo ancora installare un Hadoop localmente????

Risposta: Non è necessario installare Hadoop, ma devi configurare la variabile %HADOOP_HOME%.

Soluzione:

Scarica i winutils corrispondenti in base alla versione del tuo server

Introduzione di Winutils: I binari Windows per le versioni Hadoop, questi sono costruiti direttamente dallo stesso commit git usato per creare la versione ufficiale ASF; Sono prelevati e costruiti su una VM Windows dedicata al test di applicazioni Hadoop/YARN su Windows. Non è un sistema per l'uso quotidiano, quindi è isolato dagli attacchi di sicurezza di drive/email.


Collegamento:https://github.com/steveloughran/winutils

Dato che la mia versione Hadoop è la 2.8.3, l'indirizzo di download è:https://github.com/steveloughran ... er/hadoop-2.8.3/bin

winutils.2.8.3.bin.zip (1.88 MB, Numero di download: 15)

Clona o scarica una cartella di un repository su GitHub
https://www.itsvse.com/thread-7086-1-1.html
(Fonte: Architect_Programmer)
Imposta la variabile ambiente %HADOOP_HOME% per puntare alla directory sopra la cartella BIN che contiene il WINUTILS.EXE. Come mostrato di seguito:



Chiudi l'idea, riapri il progetto con l'idea, inizia il progetto e l'eccezione scompare.

Collegamenti di riferimento:https://wiki.apache.org/hadoop/WindowsProblems




Precedente:js-window.onload può essere chiamato solo una volta!
Prossimo:Metodo di Discuruz Post per nascondere automaticamente i link
Disconoscimento:
Tutto il software, i materiali di programmazione o gli articoli pubblicati dalla Code Farmer Network sono destinati esclusivamente all'apprendimento e alla ricerca; I contenuti sopra elencati non devono essere utilizzati per scopi commerciali o illegali, altrimenti gli utenti dovranno sostenere tutte le conseguenze. Le informazioni su questo sito provengono da Internet, e le controversie sul copyright non hanno nulla a che fare con questo sito. Devi eliminare completamente i contenuti sopra elencati dal tuo computer entro 24 ore dal download. Se ti piace il programma, ti preghiamo di supportare software autentico, acquistare la registrazione e ottenere servizi autentici migliori. In caso di violazione, vi preghiamo di contattarci via email.

Mail To:help@itsvse.com