Denne artikkelen er en speilartikkel om maskinoversettelse, vennligst klikk her for å hoppe til originalartikkelen.

Utsikt: 19230|Svare: 0

java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset.

[Kopier lenke]
Publisert på 26.02.2019 13:37:10 | | | |
java.io.FileNotFoundException: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. -see https://wiki.apache.org/hadoop/WindowsProblems
        på org.apache.hadoop.util.Shell.fileNotFoundException(Shell.java:528) ~[hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.util.Shell.getHadoopHomeDir(Shell.java:549) ~[hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.util.Shell.getQualifiedBin(Shell.java:572) ~[hadoop-common-2.8.4.jar:na]
        på org.apache.hadoop.util.Shell. <clinit>(Shell.java:669) ~[hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.util.StringUtils. <clinit>(StringUtils.java:79) [hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.conf.Configuration.getBoolean(Configuration.java:1555) [hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.hbase.HBaseConfiguration.checkDefaultsVersion(HBaseConfiguration.java:66) [hbase-common-2.0.0.jar:2.0.0]
        på org.apache.hadoop.hbase.HBaseConfiguration.addHbaseResources(HBaseConfiguration.java:80) [hbase-common-2.0.0.jar:2.0.0]
        at org.apache.hadoop.hbase.HBaseConfiguration.create(HBaseConfiguration.java:94) [hbase-common-2.0.0.jar:2.0.0]
        at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:49) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        på org.apache.phoenix.util.PhoenixContextExecutor.call(PhoenixContextExecutor.java:76) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        på org.apache.phoenix.util.PhoenixContextExecutor.callWithoutPropagation(PhoenixContextExecutor.java:91) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        at org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl.getConfiguration(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0- HBase-2.0]
        på org.apache.phoenix.jdbc.PhoenixDriver.initializeConnectionCache(PhoenixDriver.java:151) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        på org.apache.phoenix.jdbc.PhoenixDriver. <init>(PhoenixDriver.java:143) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]


Serverens Hadoop-versjon er som følger:

[root@master ~]# Hadoop-versjon
Hadoop 2.8.3
Undergravinghttps://git-wip-us.apache.org/repos/asf/hadoop.git-r b3fe56402d908019d99af1f1f1f4fc65cb1d1436a2
Samlet av jdu 2017-12-05T03:43Z
Kompilt med protoc 2.5.0
Fra kilde med sjekksum 9ff4856d824e983fa510d3f843e3f19d
Denne kommandoen ble kjørt med /home/dzkj/apache/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar


Jeg har alltid tenkt at min lokale idé er et kall til fjern-hadoop, så jeg slipper å installere hadoop i det lokale Windows-operativsystemet. Så da jeg så denne HADOOP_HOME, forsto jeg ikke, må jeg fortsatt installere en hadoop lokalt????

Svar: Du trenger ikke installere hadoop, men du må konfigurere %HADOOP_HOME%-variabelen.

Løsning:

Last ned tilsvarende winutils i henhold til serverversjonen din

Winutils-introduksjon: Windows-binærfiler for Hadoop-versjoner, disse er bygget direkte fra samme git-commit som ble brukt til å lage den offisielle ASF-versjonen; De er utlånt og bygget på en Windows-VM som er dedikert til testing av Hadoop/YARN-applikasjoner på Windows. Det er ikke et system for daglig bruk, så det er isolert fra harddisk- og e-postsikkerhetsangrep.


Lenke:https://github.com/steveloughran/winutils

Siden min Hadoop-versjon er 2.8.3, er nedlastingsadressen:https://github.com/steveloughran ... er/hadoop-2.8.3/bin

winutils.2.8.3.bin.zip (1.88 MB, Antall nedlastinger: 15)

GitHub-klon eller last ned en mappe i et arkiv
https://www.itsvse.com/thread-7086-1-1.html
(Kilde: Architect_Programmer)
Sett miljøvariabelen %HADOOP_HOME % til å peke på katalogen over BIN-katalogen som inneholder WINUTILS.EXE. Som vist nedenfor:



Lukk ideen, åpne prosjektet med ideen igjen, start prosjektet, og unntaket forsvinner.

Referanselenker:https://wiki.apache.org/hadoop/WindowsProblems




Foregående:js-window.onload kan bare kalles én gang!
Neste:Discuz-postmetoden for automatisk å skjule lenker
Ansvarsfraskrivelse:
All programvare, programmeringsmateriell eller artikler publisert av Code Farmer Network er kun for lærings- og forskningsformål; Innholdet ovenfor skal ikke brukes til kommersielle eller ulovlige formål, ellers skal brukerne bære alle konsekvenser. Informasjonen på dette nettstedet kommer fra Internett, og opphavsrettstvister har ingenting med dette nettstedet å gjøre. Du må fullstendig slette innholdet ovenfor fra datamaskinen din innen 24 timer etter nedlasting. Hvis du liker programmet, vennligst støtt ekte programvare, kjøp registrering, og få bedre ekte tjenester. Hvis det foreligger noen krenkelse, vennligst kontakt oss på e-post.

Mail To:help@itsvse.com