|
|
Publicēts 26.02.2019 13:37:10
|
|
|
|

java.io.FileNotFoundException: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. -see https://wiki.apache.org/hadoop/WindowsProblems org.apache.hadoop.util.Shell.fileNotFoundException(Shell.java:528) ~[hadoop-common-2.8.4.jar:na] org.apache.hadoop.util.Shell.getHadoopHomeDir(Shell.java:549) ~[hadoop-common-2.8.4.jar:na] org.apache.hadoop.util.Shell.getQualifiedBin(Shell.java:572) ~[hadoop-common-2.8.4.jar:na] vietnē org.apache.hadoop.util.Shell. <clinit>(Shell.java:669) ~[hadoop-common-2.8.4.jar:na] vietnē org.apache.hadoop.util.StringUtils. <clinit>(StringUtils.java:79) [hadoop-common-2.8.4.jar:na] org.apache.hadoop.conf.Configuration.getBoolean(Configuration.java:1555) [hadoop-common-2.8.4.jar:na] org.apache.hadoop.hbase.HBaseConfiguration.checkDefaultsVersion(HBaseConfiguration.java:66) [hbase-common-2.0.0.jar:2.0.0] org.apache.hadoop.hbase.HBaseConfiguration.addHbaseResources(HBaseConfiguration.java:80) [hbase-common-2.0.0.jar:2.0.0] vietnē org.apache.hadoop.hbase.HBaseConfiguration.create(HBaseConfiguration.java:94) [hbase-common-2.0.0.jar:2.0.0] vietnē org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:49) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] vietnē org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] vietnē org.apache.phoenix.util.PhoenixContextExecutor.call(PhoenixContextExecutor.java:76) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] org.apache.phoenix.util.PhoenixContextExecutor.callWithoutPropagation(PhoenixContextExecutor.java:91) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl.getConfiguration(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0- HBase-2.0] org.apache.phoenix.jdbc.PhoenixDriver.initializeConnectionCache(PhoenixDriver.java:151) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0] vietnē org.apache.phoenix.jdbc.PhoenixDriver. <init>(PhoenixDriver.java:143) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
Servera Hadoop versija ir šāda:
[root@master ~]# Hadoop versija Hadoop 2.8.3 Graušanahttps://git-wip-us.apache.org/repos/asf/hadoop.git-r b3fe56402d908019d99af1f1f4fc65cb1d1436a2 Sastādīja jdu 2017-12-05T03:43Z Sastādīts ar protoc 2.5.0 No avota ar kontrolsummu 9ff4856d824e983fa510d3f843e3f19d Šī komanda tika izpildīta, izmantojot /home/dzkj/apache/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar
Es vienmēr esmu domājis, ka mana vietējā ideja ir aicinājums uz attālo hadoop, tāpēc man nav nepieciešams instalēt hadoop vietējā Windows operētājsistēmā. Tātad, kad es redzēju šo HADOOP_HOME, es nesapratu, vai man joprojām ir jāinstalē hadoop lokāli????
Atbilde: Jums nav nepieciešams instalēt hadoop, bet jums ir jākonfigurē mainīgais %HADOOP_HOME%.
Šķīdums:
Lejupielādējiet atbilstošos winutils atbilstoši jūsu servera versijai
Winutils ievads: Windows binārie faili Hadoop versijām, tie ir veidoti tieši no tā paša git comm, kas tika izmantots, lai izveidotu oficiālo ASF versiju; Tie ir pārbaudīti un veidoti uz Windows VM, kas ir veltīta Hadoop / YARN lietojumprogrammu testēšanai operētājsistēmā Windows. Tā nav sistēma ikdienas lietošanai, tāpēc tā ir izolēta no diska/e-pasta drošības uzbrukumiem.
Saikne:https://github.com/steveloughran/winutils
Tā kā mana Hadoop versija ir 2.8.3, lejupielādes adrese ir:https://github.com/steveloughran ... er/hadoop-2.8.3/bin
winutils.2.8.3.bin.zip
(1.88 MB, Lejupielādes skaits: 15)
Iestatiet vides mainīgo %HADOOP_HOME%, lai norādītu uz direktoriju virs BIN direktorijas, kurā ir WINUTILS.EXE. Kā parādīts zemāk:
Aizveriet ideju, atkārtoti atveriet projektu ar ideju, sāciet projektu, un izņēmums pazūd.
Atsauces saites:https://wiki.apache.org/hadoop/WindowsProblems
|
Iepriekšējo:js-window.onload var izsaukt tikai vienu reizi!Nākamo:discuz post metode, lai automātiski paslēptu saites
|