Ця стаття є дзеркальною статтею машинного перекладу, будь ласка, натисніть тут, щоб перейти до оригінальної статті.

Вид: 19230|Відповідь: 0

java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset.

[Копіювати посилання]
Опубліковано 26.02.2019 13:37:10 | | | |
java.io.FileNotFoundException: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. -see https://wiki.apache.org/hadoop/WindowsProblems
        at org.apache.hadoop.util.Shell.fileNotFoundException(Shell.java:528) ~[hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.util.Shell.getHadoopHomeDir(Shell.java:549) ~[hadoop-common-2.8.4.jar:na]
        на org.apache.hadoop.util.Shell.getQualifiedBin(Shell.java:572) ~[hadoop-common-2.8.4.jar:na]
        на org.apache.hadoop.util.Shell. <clinit>(Shell.java:669) ~[hadoop-common-2.8.4.jar:na]
        на org.apache.hadoop.util.StringUtils. <clinit>(StringUtils.java:79) [hadoop-common-2.8.4.jar:na]
        на org.apache.hadoop.conf.Configuration.getBoolean(Configuration.java:1555) [hadoop-common-2.8.4.jar:na]
        at org.apache.hadoop.hbase.HBaseConfiguration.checkDefaultsVersion(HBaseConfiguration.java:66) [hbase-common-2.0.0.jar:2.0.0]
        на org.apache.hadoop.hbase.HBaseConfiguration.addHbaseResources(HBaseConfiguration.java:80) [hbase-common-2.0.0.jar:2.0.0]
        на org.apache.hadoop.hbase.HBaseConfiguration.create(HBaseConfiguration.java:94) [hbase-common-2.0.0.jar:2.0.0]
        на org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:49) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        за адресою org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        за адресою org.apache.phoenix.util.PhoenixContextExecutor.call(PhoenixContextExecutor.java:76) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        за адресою org.apache.phoenix.util.PhoenixContextExecutor.callWithoutPropagation(PhoenixContextExecutor.java:91) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        за адресою org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl.getConfiguration(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0- HBase-2.0]
        за адресою org.apache.phoenix.jdbc.PhoenixDriver.initializeConnectionCache(PhoenixDriver.java:151) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        за адресою org.apache.phoenix.jdbc.PhoenixDriver. <init>(PhoenixDriver.java:143) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]


Версія сервера Hadoop виглядає так:

[root@master ~]# Hadoop версія
Hadoop 2.8.3
Підривhttps://git-wip-us.apache.org/repos/asf/hadoop.git-r B3fe56402d908019d99af1f1f4fc65cb1d1436a2
Складено jdu 2017-12-05T03:43Z
Скомпільовано з protoc 2.5.0
З джерела з контрольною сумою 9ff4856d824e983fa510d3f843e3f19d
Ця команда виконувалася за допомогою /home/dzkj/apache/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar


Я завжди думав, що моя локальна ідея — це виклик до віддаленого Hadoop, тому мені не потрібно встановлювати Hadoop у локальній операційній системі Windows. Тож коли я побачив цей HADOOP_HOME, я не зрозумів, чи потрібно мені все ще встановлювати Hadoop локально????

Відповідь: Вам не потрібно встановлювати Hadoop, але потрібно налаштувати змінну %HADOOP_HOME%.

Рішення:

Завантажте відповідні winutils відповідно до версії вашого сервера

Вступ до Winutils: Бінарні файли Windows для версій Hadoop, вони створені безпосередньо з того ж git-комміту, який використовувався для створення офіційної версії ASF; Вони видаються і побудовані на Windows-віртуальній машині, призначеній для тестування Hadoop/YARN-додатків на Windows. Це не система для повсякденного використання, тому вона ізольована від атак безпеки на диск чи електронну пошту.


Посилання:https://github.com/steveloughran/winutils

Оскільки моя версія Hadoop — 2.8.3, адреса для завантаження:https://github.com/steveloughran ... er/hadoop-2.8.3/bin

winutils.2.8.3.bin.zip (1.88 MB, Кількість завантажень: 15)

Клонуйте клон на GitHub або завантажте папку репозиторію
https://www.itsvse.com/thread-7086-1-1.html
(Джерело: Architect_Programmer)
Встановіть змінну середовища %HADOOP_HOME% так, щоб вона вказувала на каталог над каталогом BIN, що містить WINUTILS.EXE. Як показано нижче:



Закриваєш ідею, знову відкриваєш проєкт із нею, починаєш — і виняток зникає.

Посилання на посилання:https://wiki.apache.org/hadoop/WindowsProblems




Попередній:js-window.onload можна викликати лише один раз!
Наступний:Метод Discuz Post для автоматичного приховування посилань
Застереження:
Усе програмне забезпечення, програмні матеріали або статті, опубліковані Code Farmer Network, призначені лише для навчання та досліджень; Вищезазначений контент не повинен використовуватися в комерційних чи незаконних цілях, інакше користувачі несуть усі наслідки. Інформація на цьому сайті надходить з Інтернету, і спори щодо авторських прав не мають до цього сайту. Ви повинні повністю видалити вищезазначений контент зі свого комп'ютера протягом 24 годин після завантаження. Якщо вам подобається програма, будь ласка, підтримуйте справжнє програмне забезпечення, купуйте реєстрацію та отримайте кращі справжні послуги. Якщо є будь-яке порушення, будь ласка, зв'яжіться з нами електронною поштою.

Mail To:help@itsvse.com