Este artículo es un artículo espejo de traducción automática, por favor haga clic aquí para saltar al artículo original.

Vista: 19230|Respuesta: 0

java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset.

[Copiar enlace]
Publicado en 26/2/2019 13:37:10 | | | |
java.io.FileNotFoundException: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. -see https://wiki.apache.org/hadoop/WindowsProblems
        en org.apache.hadoop.util.Shell.fileNotFoundException(Shell.java:528) ~[hadoop-common-2.8.4.jar:na]
        en org.apache.hadoop.util.Shell.getHadoopHomeDir(Shell.java:549) ~[hadoop-common-2.8.4.jar:na]
        en org.apache.hadoop.util.Shell.getQualifiedBin(Shell.java:572) ~[hadoop-common-2.8.4.jar:na]
        en org.apache.hadoop.util.Shell. <clinit>(Shell.java:669) ~[hadoop-common-2.8.4.jar:na]
        en org.apache.hadoop.util.StringUtils. <clinit>(StringUtils.java:79) [hadoop-common-2.8.4.jar:na]
        en org.apache.hadoop.conf.Configuration.getBoolean(Configuration.java:1555) [hadoop-common-2.8.4.jar:na]
        en org.apache.hadoop.hbase.HBaseConfiguration.checkDefaultsVersion(HBaseConfiguration.java:66) [hbase-common-2.0.0.jar:2.0.0]
        en org.apache.hadoop.hbase.HBaseConfiguration.addHbaseResources(HBaseConfiguration.java:80) [hbase-common-2.0.0.jar:2.0.0]
        en org.apache.hadoop.hbase.HBaseConfiguration.create(HBaseConfiguration.java:94) [hbase-common-2.0.0.jar:2.0.0]
        en org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:49) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        en org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl$1.call(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        en org.apache.phoenix.util.PhoenixContextExecutor.call(PhoenixContextExecutor.java:76) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        en org.apache.phoenix.util.PhoenixContextExecutor.callWithoutPropagation(PhoenixContextExecutor.java:91) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        en org.apache.phoenix.query.ConfigurationFactory$ConfigurationFactoryImpl.getConfiguration(ConfigurationFactory.java:46) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0- HBase-2.0]
        en org.apache.phoenix.jdbc.PhoenixDriver.initializeConnectionCache(PhoenixDriver.java:151) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]
        en org.apache.phoenix.jdbc.PhoenixDriver. <init>(PhoenixDriver.java:143) [phoenix-core-5.0.0-HBase-2.0.jar:5.0.0-HBase-2.0]


La versión para servidor de Hadoop es la siguiente:

[root@master ~]# Versión Hadoop
Hadoop 2.8.3
Subversiónhttps://git-wip-us.apache.org/repos/asf/hadoop.git-r b3fe56402d908019d99af1f1f4fc65cb1d1436a2
Compilado por jdu el 2017-12-05T03:43Z
Compilado con protoc 2.5.0
De la fuente con suma de comprobación 9ff4856d824e983fa510d3f843e3f19d
Este comando se ejecutaba usando /home/dzkj/apache/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar


Siempre he pensado que mi idea local es llamar a Hadoop remoto, así que no necesito instalar Hadoop en el sistema operativo Windows local. Así que cuando vi este HADOOP_HOME, no entendí, ¿todavía necesito instalar un Hadoop localmente????

Respuesta: No necesitas instalar Hadoop, pero sí configurar la variable %HADOOP_HOME%.

Solución:

Descarga los winutils correspondientes según la versión de tu servidor

Introducción a Winutils: Los binarios de Windows para versiones de Hadoop, estos se construyen directamente a partir del mismo commit git que se usó para crear la versión oficial de ASF; Están prestados y construidos sobre una máquina virtual de Windows dedicada a probar aplicaciones Hadoop/YARN en Windows. No es un sistema para uso diario, por lo que está aislado de ataques de seguridad a discos/correos electrónicos.


Enlace:https://github.com/steveloughran/winutils

Como mi versión de Hadoop es la 2.8.3, la dirección de descarga es:https://github.com/steveloughran ... er/hadoop-2.8.3/bin

winutils.2.8.3.bin.zip (1.88 MB, Número de descargas: 15)

Clona o descarga una carpeta de un repositorio en GitHub
https://www.itsvse.com/thread-7086-1-1.html
(Fuente: Architect_Programmer)
Configura la variable entorno %HADOOP_HOME% para que apunte al directorio por encima del directorio BIN que contiene el WINUTILS.EXE. Como se muestra a continuación:



Cierra la idea, reabre el proyecto con la idea, comienza el proyecto y la excepción desaparece.

Enlaces de referencia:https://wiki.apache.org/hadoop/WindowsProblems




Anterior:¡js-window.onload solo se puede llamar una vez!
Próximo:Método de Discuz Post para ocultar enlaces automáticamente
Renuncia:
Todo el software, materiales de programación o artículos publicados por Code Farmer Network son únicamente para fines de aprendizaje e investigación; El contenido anterior no se utilizará con fines comerciales o ilegales; de lo contrario, los usuarios asumirán todas las consecuencias. La información de este sitio proviene de Internet, y las disputas de derechos de autor no tienen nada que ver con este sitio. Debes eliminar completamente el contenido anterior de tu ordenador en un plazo de 24 horas desde la descarga. Si te gusta el programa, por favor apoya el software genuino, compra el registro y obtén mejores servicios genuinos. Si hay alguna infracción, por favor contáctanos por correo electrónico.

Mail To:help@itsvse.com